machine-learning - svmlight警告: Relaxing epsilon on KT-Conditions

标签 machine-learning svm

我正在尝试使用 Svmlight 学习数据集。在优化过程中我总是看到以下警告。

WARNING: Relaxing epsilon on KT-Conditions (0.010000).
.....................................................
WARNING: Relaxing epsilon on KT-Conditions (0.100000).
.....................................................
WARNING: Relaxing epsilon on KT-Conditions (1.000000).
.....................................................
WARNING: Relaxing epsilon on KT-Conditions (10.00000).
....................................................

这很重要吗?它意味着什么?目前训练还没有成功。是否与此警告有关?谢谢。

最佳答案

KT 条件是 SVM 核心优化问题的一部分。无需过多详细讨论该理论,当您获得最佳解决方案时,一系列条件都将成立。然而,通过足够的迭代来使 KT 条件完全为真比仅仅使它们在 espilon(非常小的数字)内为真需要更长的时间。本质上,我们不是说 A 必须等于 B,而是说 A 必须在 + 或 - epsilon 范围内等于 B。研究发现,这在实践中与花额外的时间让条件完全正确一样有效。

SVM Light 首先尝试使用非常小的 epsilon,当它无法解决该问题时,它会通过将其变大来放松 epsilon,以尝试找到一个,但显然,如果问题无法解决,它会尝试几次在决定它无法解决之前。

所以我想说这些警告是因为你的问题无法解决,而不是相反。

关于machine-learning - svmlight警告: Relaxing epsilon on KT-Conditions,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10025998/

相关文章:

python - 简单机器学习模型训练返回Nan

python - Sklearn LinearSVC 库中惩罚和损失参数的区别

artificial-intelligence - 从纯文本描述调用函数

machine-learning - 具有定制损失函数的随机森林

machine-learning - 通过 GridSearchCV() 探索 svm.SVC() 超参数的最佳值范围是多少?

r - 如何判断 R 是否仍在估计我的 SVM 模型或已崩溃?

machine-learning - LIBSVM:从模型文件中获取支持向量

python - LinearSVC 中参数 class_weight 的最佳值是多少?

r - 使用 svm 时绘图错误、公式丢失

python - 除了预测概率和类名称之外,如何在文本分析问题中获取属于该类的文本