我正在编写 SVM Primal 代码,它使用 SGD(随机次梯度下降)来优化向量 W。
分类方法为sign(w*x + Bias)。
我的问题是如何找到最好的偏差?
我想这一定是在W优化期间做的,但是怎么做呢?我不知道。
最佳答案
你的假设是sign(<w, x> + b)
,想一想x' = [x 1]
,那么你可以将你的假设表达为 sign(<w', x'>)
,其中w' = [w b]
。我希望它清楚地表明b
与 w
没有任何不同的(唯一的区别是您的正则化项 ||w||^2
不涉及 b
)。因此你只需要 d L/ d b
哪里L
是你的损失函数。
关于machine-learning - 机器学习-SVM-计算向量W时如何计算偏差?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35244320/