吴恩达的讲座说过
J= -1/m * 总和 (y*log(h(x))+(1-y)log(1-h(x)))
但是在 https://www.tensorflow.org/get_started/mnist/beginners他们说:
他们为什么使用这个公式?
最佳答案
这就是二元方法与分类方法。 Andrew Ng 的成本函数是二元交叉熵(或对数损失),而 tensorflow 教程中使用的是分类交叉熵。他们使用 one-hot 矢量编码来跨多个类别使用这一点。因此,即使对于 2 个类别,您也有一个像这样的标签:[0, 1]。
在二进制情况下,0 是错误情况的标签。这在只有 1 重要的分类情况下不存在,因为在 softmax 分类器中,所有元素的总和都需要为 1。
关于python - 逻辑回归: Bias and cost function in tensorflow,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42439854/