python - 一定范围内的自定义准确度指标,用于回归

标签 python tensorflow machine-learning regression

我需要编写一个准确度指标(在训练期间)来计算一定范围内的准确度百分比。所以它会在训练期间的每个时期显示我的自定义准确性。

例如。如果y_pred为343,y_target为340,范围为10,则应算为正确。这意味着,[340-5, 340+5] 范围内的任何预测值都将被视为该实例的正确值。

但是现有的准确度指标会认为上述是错误的,并且对于回归问题来说准确度非常低。

最佳答案

您需要:

y_pred = [125, 332, 268, 349]
y_target = [129, 342, 265, 370]

def accuracy(y_pred, y_target):
    a = [1 for i,j in zip(y_pred, y_target) if i in range(j-5,j+6)]

    return sum(a)/len(y_pred)

print(accuracy(y_pred, y_target))

输出:

0.5

关于python - 一定范围内的自定义准确度指标,用于回归,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59818019/

相关文章:

python - Manage.py sqlall <myapp> 不创建列

python - tensorflow : Ran out of memory trying to allocate

python - 我如何在 scikit-learn 中使用 k 折交叉验证来获得每折的精确召回率?

python - 如何向量化 SVM 中的损失

python - Pandas 按某些 cumsum 拆分行

python - 列表理解拆分循环变量

Python 字符串和 UTF-8 问题

python - Tensorflow 1.8 GPU版本似乎在windows上不使用GPU

python - Tensorflow:tf.contrib 弃用

c++ - 生成汉明距离 t 内的所有比特序列