scikit-learn - 分类 - 修改后的 huber 损失 : how is it more tolerant to outliers?

标签 scikit-learn classification svm outliers

根据scikit-learn SGDClassifier documentation ,修改后的 Huber 损失函数可用于对异常值提供更高的容忍度。

看看 plot虽然是成本函数的一部分,但 Modified Huber 似乎不是不太宽容吗?它似乎会给 f(x)<0 的观察带来更高的成本,即位于边缘错误一侧的观察。这不对吗? enter image description here

最佳答案

这里的问题是 scikit-learn 文档没有说明我们应该将 Modified Huber 对异常值的容忍度与哪个基线损失函数进行比较。

Modified Huber loss源于Huber loss,用于回归问题。看着这个plot ,我们看到 Huber 损失对异常值的容忍度高于平方损失。正如您所指出的,其他损失函数对异常值的容忍度更高,但平方铰链损失除外。

关于scikit-learn - 分类 - 修改后的 huber 损失 : how is it more tolerant to outliers?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47716601/

相关文章:

python - 使用 scikit-learn SVM 和 optunity 时出现“错误的输入形状”

python - matplotlib:重新缩放轴标签

python - sklearn 随机森林分类器可以按树调整样本大小,以处理类别不平衡吗?

python - 如何加速sklearn SVR?

opencv - 如何使用 OpenCV 3 训练 SVM 进行 "Euro"硬币识别?

python - 为标签预测项目提取特征

python - 完整的 sklearn 管道示例

python - sklearn StandardScaler 返回全零

java - 如何将数据集分为训练集和测试集?

machine-learning - 即使训练和测试数据相同,分类器每次训练都会给出不同的结果