一旦我们得到模型的系数,我就无法理解决策边界是如何计算的。
这是我引用的链接:http://scikit-learn.org/stable/auto_examples/svm/plot_svm_margin.html
这是代码
# get the separating hyperplane
w = clf.coef_[0]
a = -w[0] / w[1]
xx = np.linspace(-5, 5)
yy = a * xx - (clf.intercept_[0]) / w[1]
我不明白a = -w[0]/w[1]
这行代码。
为什么我们要将一个系数除以另一个系数?
最佳答案
分离超平面的形式为w[0]*x+w[1]*y+intercept=0
。所以
w[1]*y=-w[0]*x-截距
现在两边除以w[1]
,就得到
y=-(w[0]/w[1])*x-截距/w[1]
。
这正是代码中出现的等式。
关于machine-learning - SVM中的决策边界计算,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43574885/