我正在尝试使用一些自定义随机森林实现来解决二元分类问题。
目标是预测该项目属于 A 类的可能性。评估策略的定义是,对误报(A 类的可能性较高,而实际类是 B)的惩罚比漏报(A 类的可能性较低)受到更严厉的惩罚。对于 A,而实际类别是 A)。
标准算法应该如何调整才能利用这一点来获得更高的评估分数?
最佳答案
如果您还没有尝试使用 rfUtilities 包:https://cran.r-project.org/web/packages/rfUtilities/rfUtilities.pdf
它旨在通过预测单个类别出现的可能性来处理类别不平衡问题。
关于machine-learning - 随机森林: how to favor false negatives over false positives,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25295724/