如果我有一个训练有素的随机森林,有什么办法可以让我获得森林在测试样本上每个类(class)获得的票数?一定比例的选票会更好。
类似于 CVRTrees::predict,但得到的是原始输出以及预测的类。
谢谢
编辑 进一步解释我的目标,这样我就有可能得到解决我的问题而不一定是我的问题的答案。
要回答我知道多少,那就太少了。
这是一个真实世界的应用程序,我正在努力让自己尽快熟悉所有这些。
本质上,我研究的是判别式分类器,要求我能够比较 2 个(或更多)独立分类器之间的输出。我的意思是独立的,因为他们可能知道也可能不知道整个类集,但是确实存在一组类,其中所有分类器都包含此类的子集。
虽然我最初是从每个分类器收集关于分类的元信息,理想情况下它会包含某种形式(有 15% 是 A,78% 的机会是 B)[我知道机会是一个坏词,但我会离开它]。如果我可以获得该输出,我将能够根据分配给每个分类器的动态性能权重执行最终分类。
我的想法是,我可以使用非常简单的基于规则的分类器进行初始分类,而更奇特的分类器有时间进行训练。理想情况下,学习分类器可能比规则分类器支持更多的类,并且随着时间的推移它会被主要使用。
最佳答案
我正在处理同样的问题,我想在这里分享我的解决方案。我从 CvRTrees 派生了一个类,并添加了一个具有所需行为的函数。我使用现有的 predict() 函数作为起点。这是我的代码:
class CvRTreesMultiClass : public CvRTrees
{
public:
int predict_multi_class( const CvMat* sample,
cv::AutoBuffer<int>& out_votes,
const CvMat* missing = 0) const;
};
与:
int CvRTreesMultiClass::predict_multi_class( const CvMat* sample,
cv::AutoBuffer<int>& out_votes,
const CvMat* missing ) const
{
int result = 0;
int k;
if( nclasses > 0 ) //classification
{
int max_nvotes = 0;
int* votes = out_votes;
memset( votes, 0, sizeof(*votes)*nclasses );
for( k = 0; k < ntrees; k++ )
{
CvDTreeNode* predicted_node = trees[k]->predict( sample, missing );
int nvotes;
int class_idx = predicted_node->class_idx;
CV_Assert( 0 <= class_idx && class_idx < nclasses );
nvotes = ++votes[class_idx];
}
result = ntrees;
}
else // regression
{
throw std::runtime_error(__FUNCTION__ "can only be used classification");
}
return result;
}
调用此函数后,我简单地根据每个类(class)收到的票数计算概率 (prob = out_votes[class_index]/result)。我认为这就是 OP 想要的(至少我是)。
关于c++ - 使用 OpenCV 随机森林,有什么方法可以获得分类的 "confidence"级别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10358964/