python - 如何计算假阳性率(FPR)和假阴性率百分比?

标签 python scikit-learn

我计算假阳性率和假阴性率。我正在使用这些技术:

cnf_matrix=confusion_matrix(Ytest, y_pred)

print(cnf_matrix)

FP = cnf_matrix.sum(axis=0) - np.diag(cnf_matrix)
FN = cnf_matrix.sum(axis=1) - np.diag(cnf_matrix)
TP = np.diag(cnf_matrix)
TN = cnf_matrix.sum() - (FP + FN + TP)

FP = FP.astype(float)
print('FP: '+str(FP))
FN = FN.astype(float)
print('Fn: '+str(FN))
TP = TP.astype(float)
print('FN: '+str(FN))
TN = TN.astype(float)
print('TN: '+str(TN))
# false positive rate
FPR = FP/(FP+TN)
print('FPR: '+str(FPR))
# False negative rate
FNR = FN/(TP+FN)
print('FNR: '+str(FNR))

我得到了这些向量:

FPR: [0.         0.01666667 0.        ]
FNR: [0.         0.         0.03448276]

但是,我只需要获取一个值,而不是向量。 如何得到它?

最佳答案

对于多类分类,您的代码似乎是正确的。这些向量简单地给出了所有三个类别的 FPR 和 FNR。因为每个类别会有不同的FPR和FNR。如果您只对某一类的 FPR/FNR 感兴趣,那么您可以通过给出索引来简单地访问该分数

print('FNR: '+str(FNR[0]))   #FNR for 1st class will be at index 0

另一方面,对于二元分类,我认为最好使用 scikit-learn 的函数来计算这些值。

  • FPR = 1 - TNRTNR = 特异性

  • FNR = 1 - TPRTPR = 召回率

然后,您可以计算FPR和FNR,如下所示:

from sklearn.metrics import recall_score
tpr = recall_score(Ytest, y_pred)   # it is better to name it y_test 
# to calculate, tnr we need to set the positive label to the other class
# I assume your negative class consists of 0, if it is -1, change 0 below to that value
tnr = recall_score(Ytest, y_pred, pos_label = 0) 
fpr = 1 - tnr
fnr = 1 - tpr

关于python - 如何计算假阳性率(FPR)和假阴性率百分比?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56203875/

相关文章:

android - 使用 kivy 在 Android 和 IOS 中播放音频(mp3)

python - Selenium 错误 : AttributeError: 'Service' object has no attribute 'process'

python - 特征选择python后的预测

python - 仅使用系数和截距模拟 sklearn 逻辑回归 Predict_proba

python - 按值对字典进行排序,然后将排序后的值附加到文本文件中

python - 使用自定义证书文件在代理后面进行 Pip

python - 如何确定 Python 中 datetime.strftime(...) 的编码?

python - 将提取的向量加载到 TfidfVectorizer

python-3.x - 类型错误: __init__() got an unexpected keyword argument 'n_folds' ,情感分析与SVM

python - 使用 Dill 序列化 scikit-learn/statsmodels 模型的陷阱是什么?