我需要编写一个准确度指标(在训练期间)来计算一定范围内的准确度百分比。所以它会在训练期间的每个时期显示我的自定义准确性。
例如。如果y_pred
为343,y_target为340
,范围为10
,则应算为正确。这意味着,[340-5, 340+5]
范围内的任何预测值都将被视为该实例的正确值。
但是现有的准确度指标会认为上述是错误的,并且对于回归问题来说准确度非常低。
最佳答案
您需要:
y_pred = [125, 332, 268, 349]
y_target = [129, 342, 265, 370]
def accuracy(y_pred, y_target):
a = [1 for i,j in zip(y_pred, y_target) if i in range(j-5,j+6)]
return sum(a)/len(y_pred)
print(accuracy(y_pred, y_target))
输出:
0.5
关于python - 一定范围内的自定义准确度指标,用于回归,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59818019/