python - 从 scikit-learn 训练 SVC 表明使用 -h 0 可能会更快?

标签 python scikit-learn svm libsvm multiclass-classification

我正在大型数据集上训练 SVC 模型,由于我设置了 verbose=True,它显示警告:使用 -h 0 可能会更快

我有两个问题:

  • 这个警告是什么以及我们如何设置警告中提到的 libsvm 的任何选项?
  • sklearn.svm.SVC参数设置中缓存的大小会影响训练速度吗?我将其设置为 cache_size=2000

感谢您的专家观点

最佳答案

-h参数控制收缩:是否使用收缩启发式,0或1(默认1)

您可以使用 shr​​inking 参数在 SVC 构造函数中设置它。收缩是一种加速优化问题的启发式方法。

检查Original PaperSimilar Quesiton on shrinking

缓存是一种减少分解方法计算时间的技术,分解方法是训练的一部分。此大小通过 cache_size 参数控制。

我强烈建议阅读原始的 libsm 论文,尤其是第 5 节。

关于python - 从 scikit-learn 训练 SVC 表明使用 -h 0 可能会更快?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58074021/

相关文章:

python - 使用 Percona 安装 mysql-python

python - 使用Python读取文件夹中的wav文件

scikit-learn - 我应该如何在 Scikit-learn 中使用 RandomizedLogisticRegression?

matlab - 关于 model.SVs 的 LIBSVM 输出

r - 使用具有 3 个或更多类变量的 KSVM(kernlab)在 R 中创建二维图

python - 使用 web2py 将 BLOB 保存到 MySQL

python - ZMQ 对(用于信令)由于连接不良而阻塞

python - Windows错误: [Error 127] The specified procedure could not be found

python - 逻辑回归 - ValueError : classification metrics can't handle a mix of continuous-multi output and binary targets

machine-learning - SVM 和铰链损失之间有什么关系?