machine-learning - 从最终模型混淆矩阵重新创建 "multiClassSummary"统计数据

标签 machine-learning random-forest r-caret roc

下面是使用插入符号中 Zach Mayer 的 multiClassSummary 函数在三结果鸢尾花数据集上构建的随机森林:

require('caret')

data(iris)
ir.dat <- iris

tc<-trainControl("repeatedcv", repeats=5, num=2,
             selectionFunction="oneSE",
             returnData=T, classProbs = T, 
             summaryFunction=multiClassSummary, 
             savePredictions = T)

ir.train <- train(Species ~ .,
              data = ir.dat,
              method = "rf",
              trControl = tc)


## Results

ir.train$finalModel$confusion

               setosa versicolor virginica class.error
    setosa         50          0         0        0.00
    versicolor      0         47         3        0.06
    virginica       0          4        46        0.08

ir.train$bestTune
ir.train$results[1,c(4,6:7)]      

    Accuracy Mean_Sensitivity Mean_Specificity
    0.952            0.952            0.976

现在,我想了解如何根据模型的混淆矩阵计算这些边际统计数据(或者它们是否是根据给定的混淆矩阵计算的)。我知道每个性能指标的公式,它们是:

Sensitivity = sum(True Positive)/sum(Condition Positive)
Specificity= sum(True Negative)/sum(Condition Negative)
Accuracy = Sensitivity  + Specificity // sum(Total Population)

此外,我知道当存在两个以上结果类别时,multiClassSummary 函数使用一对多方法来计算这些边际统计数据。然而,当我尝试根据给定的混淆矩阵手动重新创建计算时,我的结果并不相同。例如我计算:

Sensitivity = (50/50) + (47/50) + (46/50) = 2.86/3 = 0.9533
Specificity = (50/50) + (47/50) + (46/50) = 2.86/3 = 0.9533
Accuracy = Sensitivity + Specificity//150 = 0.9533

在我的计算中,每个类(class)都以“回合”作为积极和消极的结果。显然,这些结果与模型的输出不匹配,而且它们也没有多大意义,因为它们都具有相同的值。谁能阐明如何在多类情况下从模型混淆矩阵计算这些边际统计数据?

最佳答案

请注意,ir.train$finalModel$confusion 是由 randomForest 包使用 OOB 统计数据生成的,与 使用的混淆矩阵没有直接关系ir.train$结果。这是基于外部重采样过程的。

Can anyone shed some light on how these marginal statistics are calculated from the model confusion matrix in a multiClass situation?

当然!

> multiClassSummary ## Edited for space
function (data, lev = NULL, model = NULL) 
{
  ## <snip>
  has_class_probs <- all(lev %in% colnames(data))
  if (has_class_probs) {
    lloss <- mnLogLoss(data = data, lev = lev, model = model)
    requireNamespaceQuietStop("ModelMetrics")
    prob_stats <- lapply(levels(data[, "pred"]), function(x) {
      obs <- ifelse(data[, "obs"] == x, 1, 0)
      prob <- data[, x]
      AUCs <- try(ModelMetrics::auc(obs, data[, x]), silent = TRUE)
      return(AUCs)
    })
    roc_stats <- mean(unlist(prob_stats))
  }
  CM <- confusionMatrix(data[, "pred"], data[, "obs"])
  if (length(levels(data[, "pred"])) == 2) {
    class_stats <- CM$byClass
  }
  else {
    class_stats <- colMeans(CM$byClass)
    names(class_stats) <- paste("Mean", names(class_stats))
  }
  overall_stats <- if (has_class_probs) 
    c(CM$overall, logLoss = lloss, ROC = roc_stats)
  else CM$overall
  if (length(levels(data[, "pred"])) > 2) 
    names(overall_stats)[names(overall_stats) == "ROC"] <- "Mean_AUC"

  ## <snip>
}

关于machine-learning - 从最终模型混淆矩阵重新创建 "multiClassSummary"统计数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40346851/

相关文章:

matlab - AI 神经网络错误的手写数字预测由于反色。 Octave /Matlab?

machine-learning - 估计人工神经网络的神经元数量和层数

scikit-learn - 多标签问题中的 RandomForestClassifier - 它是如何工作的?

python - 打印随机森林分类器中特定样本的决策路径

python - 是否有简单的方法来网格搜索而不在 python 中进行交叉验证?

machine-learning - na.fail.default 中的随机森林错误 : missing values in object

python - 删除所有观测值具有相同值的列是否会影响我的模型?

statistics - 如何使用非常小的数据集对特征进行加权以实现更好的聚类?

R 插入符号错误 : Something is wrong; all the Accuracy metric values are missing:

r - 插入符号 : Error in table(y) : attempt to make a table with >= 2^31 elements