TensorFlow calls softmax 的每个输入都是一个 logit。他们继续将 softmax 的输入/logits 定义为:“未缩放的对数概率。”
Wikipedia和其他消息来源说,logit 是几率的对数,是 sigmoid/logistic 函数的反函数。即,如果 sigmoid(x) = p(x),则 logit( p(x) ) = log( p(x)/(1-p(x)) ) = x。
TensorFlow 将 softmax 的输入称为“logits”是否有数学或传统原因?难道它们不应该被称为“未缩放的对数概率”吗?
也许 TensorFlow 只是想为二元逻辑回归(使用术语 logit 有意义)和分类逻辑回归保留相同的变量名称...
这个问题是covered a little bit here ,但似乎没有人对使用“logit”一词来表示“未缩放的对数概率”感到困扰。
最佳答案
Logit 现在在 ML 社区中用于任何非标准化概率分布(基本上是通过无参数变换映射到概率分布的任何东西,例如二元变量的 sigmoid 函数或多项式变量的 softmax)。它不是一个严格的数学术语,但已经足够流行并包含在 TF 文档中。
关于machine-learning - 为什么 TensorFlow 的文档将 softmax 的输入称为 "logits"?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44210454/