machine-learning - 随机森林: how to favor false negatives over false positives

标签 machine-learning random-forest ensemble-learning

我正在尝试使用一些自定义随机森林实现来解决二元分类问题。

目标是预测该项目属于 A 类的可能性。评估策略的定义是,对误报(A 类的可能性较高,而实际类是 B)的惩罚比漏报(A 类的可能性较低)受到更严厉的惩罚。对于 A,而实际类别是 A)。

标准算法应该如何调整才能利用这一点来获得更高的评估分数?

最佳答案

如果您还没有尝试使用 rfUtilities 包:https://cran.r-project.org/web/packages/rfUtilities/rfUtilities.pdf

它旨在通过预测单个类别出现的可能性来处理类别不平衡问题。

关于machine-learning - 随机森林: how to favor false negatives over false positives,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25295724/

相关文章:

machine-learning - 在随机森林中树的每个节点处随机选择变量

python-3.x - 使用自定义目标/损失函数的随机森林回归器(Python/Sklearn)

machine-learning - Stacking、堆叠泛化算法

machine-learning - 在K-Means聚类算法(sklearn)中如何将欧氏距离覆盖到某个距离

python - 值错误: could not convert string to float:While loading data from sql server to Predict()

r - 如何更改 R 中随机森林的分割标准?

machine-learning - 如何在 Adaboost 中使用弱学习器?

python - 类(class)要求我为朴素贝叶斯模型 python 提供 self

matlab - 绘制两个多元高斯的决策边界

machine-learning - 如何查看sklearn ensemble中adaboost分类器每个基本估计器的预测