machine-learning - 决策边界和超平面有什么区别?

标签 machine-learning svm

我正在研究支持向量机,我想知道决策边界和最佳超平面之间有什么区别?它们似乎都被描述为分隔数据点所绘制的线。

最佳答案

线性支持向量机的决策边界是(仿射)hyperplane .

对于非线性核支持向量机,支持向量机的决策边界不是原始特征空间中的超平面,而是非线性超曲面(维度的曲面) n_features - 1),其形状取决于内核的类型。

但是,核函数可以解释为引入从原始特征空间到某个核空间的非线性映射。在核空间中,SVM 的决策函数是一个超平面。这是video给出了多项式核函数两者之间关系的直观描述。

关于machine-learning - 决策边界和超平面有什么区别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20669269/

相关文章:

r - R 中朴素贝叶斯数值预测器的奇怪结果

machine-learning - 矢量数据的受限玻尔兹曼机的替代方案(而不是二进制)

machine-learning - 为 libsvm-线性 内核选择优化参数

machine-learning - 如何在分类机器学习算法中发现新类?

image-processing - 识别山脊的几何形状

machine-learning - 机器学习算法提供描述分类原因的信息

machine-learning - 为什么在预处理图像数据时需要做零中心数据?

python - LinearSVC sklearn (scikit-learn) 中 C 的行为

machine-learning - 逻辑回归模型 LogisticRegression 中的内核 scikit-learn sklearn

libsvm - LibSVM 特征向量中的特征顺序重要吗?