algorithm - 感知器学习算法 : convergence proof for the algorithm, 为什么 ||w*||等于 1 还是这个条件是必要的?

标签 algorithm machine-learning perception

我正在研究感知学习,并通过以下链接(https://www.cse.iitb.ac.in/~shivaram/teaching/cs344+386-s2017/resources/classnote-1.pdf)学习算法的收敛性证明:如图所示的假设1(线性可分性)。我不知道为什么 ||w*||=1 或者为什么这个条件是必要的,你能帮我理解吗?谢谢!

assumption 1

最佳答案

规范假设只是为了简化分析,很容易证明该假设不是必需的,因为放弃它实际上意味着它。

假设存在 w (||w|| = Z > 0), gamma>0 这样

yi(<w, xi>) > gamma

然后对于相同的 Gamma :

yi(<Zw/||w||, xi>) > gamma

因此

|Z| yi(<w/||w||, xi>) > gamma

所以对于 w* = w/||w|| (所以 ||w*||=1),并且 gamma* = gamma/|Z| > 0

yi(<w*, xi>) > gamma*

得出的结论是,如果存在任何 w(具有任意范数 Z)和 gamma,则也存在具有范数 1 的 w*(并且我们只需将原始 gamma 除以 Z)和 gamma*=gamma/Z.

这样做的唯一原因是使证明中的常数更简单,但假设本身是多余的。

关于algorithm - 感知器学习算法 : convergence proof for the algorithm, 为什么 ||w*||等于 1 还是这个条件是必要的?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44224553/

相关文章:

matplotlib - 在 Mayavi 体积可视化中使用感知均匀的色彩图

performance - 动态生成的网页的创建速度应该多快?

c++ - 人脸识别英特尔感知计算

c++ - 为什么当我使用 std::algorithms 而不是普通循环时这段代码变慢了?

c++ - 如何顺时针交换二次矩阵的四分之一(从左上角开始)?

machine-learning - 训练中神经网络权重溢出

python - 对 LinearRegression 使用 .set_params() 函数

在一系列重叠间隔中找到最大和的算法

python - 提高python算法的速度

machine-learning - 如何在 tensorflow 中设置可变占位符形状?