machine-learning - 为什么 TensorFlow 的文档将 softmax 的输入称为 "logits"?

标签 machine-learning tensorflow documentation logistic-regression softmax

TensorFlow calls softmax 的每个输入都是一个 logit。他们继续将 softmax 的输入/logits 定义为:“未缩放的对数概率。”

Wikipedia和其他消息来源说,logit 是几率的对数,是 sigmoid/logistic 函数的反函数。即,如果 sigmoid(x) = p(x),则 logit( p(x) ) = log( p(x)/(1-p(x)) ) = x。

TensorFlow 将 softmax 的输入称为“logits”是否有数学或传统原因?难道它们不应该被称为“未缩放的对数概率”吗?

也许 TensorFlow 只是想为二元逻辑回归(使用术语 logit 有意义)和分类逻辑回归保留相同的变量名称...

这个问题是covered a little bit here ,但似乎没有人对使用“logit”一词来表示“未缩放的对数概率”感到困扰。

最佳答案

Logit 现在在 ML 社区中用于任何非标准化概率分布(基本上是通过无参数变换映射到概率分布的任何东西,例如二元变量的 sigmoid 函数或多项式变量的 softmax)。它不是一个严格的数学术语,但已经足够流行并包含在 TF 文档中。

关于machine-learning - 为什么 TensorFlow 的文档将 softmax 的输入称为 "logits"?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44210454/

相关文章:

python - Tensorflow 在 C++ 中导出和运行图的不同方法

django - 如何记录 Django REST Framework 文档的响应模式?

documentation - VSCode是否有 Electron 文档?

python - Lime vs TreeInterpreter 用于解释决策树

java - 定制斯坦福NER

python - keras和scipy的2D卷积结果不同

java - 如何让 Java API Javadocs 出现在 Ubuntu 的 Eclipse 中

python - 如何在使用 Scikit-Learn 创建 ROC 曲线时使用预测分数

python - 具有交叉验证的scikits混淆矩阵

machine-learning - 使用 tensorflow 预测车祸