machine-learning - 如何在之前的模型的基础上继续训练SVM

标签 machine-learning svm libsvm

我们都知道SVM的目标函数是迭代训练的。为了继续训练,如果我们想继续使用相同的训练数据集,至少我们可以存储迭代中使用的所有变量。

但是,如果我们想在稍微不同的数据集上进行训练,我们应该怎样做才能充分利用之前训练的模型呢?或者说这样的想法有道理吗?我觉得如果我们训练一个K-means模型是非常合理的。但我不确定它对于 SVM 问题是否仍然有意义。

最佳答案

有一些关于这个主题的文献:

  1. alpha-seeding ,其中训练数据被分成 block 。在第 block 上训练 SVM 后,您可以使用它们来训练第 (i+1) block 上的 SVM。

  2. Incremental SVM作为在线学习,您可以使用新示例更新分类器,而不是重新训练整个数据集。

  3. SVM heavy还包含在线 SVM 培训。

关于machine-learning - 如何在之前的模型的基础上继续训练SVM,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21188725/

相关文章:

python - TypeError : Level type mismatch: 0. 2.将数据拆分为训练集、验证集和测试集时

python - 使用 Keras 和 Hyperas 进行参数调整

python - libsvm 预测方法困惑

php - 无法运行 PHP::SVM

Python:如何处理回归 Q-Q 图中的异常值?

python - 当我给它图像时,我的 keras 模型会给出随机预测

r - 在 R 中使用 SVM 预测时的因子(0)

R:使用自定义内核(用户定义内核)的 SVM 性能在 kernlab 中不起作用

machine-learning - BaggingClassifier 每次都会获取所有数据集

java - 如何在java中对libsvm的svm_predict()输出进行排名?