machine-learning - 机器学习-SVM-计算向量W时如何计算偏差?

标签 machine-learning computer-vision svm gradient-descent

我正在编写 SVM Primal 代码,它使用 SGD(随机次梯度下降)来优化向量 W。

分类方法为sign(w*x + Bias)。
我的问题是如何找到最好的偏差?
我想这一定是在W优化期间做的,但是怎么做呢?我不知道。

最佳答案

你的假设是sign(<w, x> + b) ,想一想x' = [x 1] ,那么你可以将你的假设表达为 sign(<w', x'>) ,其中w' = [w b] 。我希望它清楚地表明bw 没有任何不同的(唯一的区别是您的正则化项 ||w||^2 不涉及 b )。因此你只需要 d L/ d b哪里L是你的损失函数。

关于machine-learning - 机器学习-SVM-计算向量W时如何计算偏差?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35244320/

相关文章:

machine-learning - 如何训练人工神经网络使用视觉输入玩《暗黑破坏神 2》?

c# - Accord.NET多类SVM分类Kernel如何解决Out of memory异常

machine-learning - 用于对未知输入进行分类的 tensorflow

python - 神经网络中的 SciPy 优化警告

python - 创建给定位置的房地产价格指数

python - Tensorflow梯度为0,权重不更新

python - 如何使用Python去除金相图像上的划痕

nlp - 财经新闻标题分类为正/负类

python - 如何获得多类分类问题中每个类的精度分数?

language-agnostic - 发布订单的神经网络?