python - 逻辑回归: Bias and cost function in tensorflow

标签 python machine-learning tensorflow deep-learning

吴恩达的讲座说过

J= -1/m * 总和 (y*log(h(x))+(1-y)log(1-h(x)))

但是在 https://www.tensorflow.org/get_started/mnist/beginners他们说:

enter image description here

他们为什么使用这个公式?

最佳答案

这就是二元方法与分类方法。 Andrew Ng 的成本函数是二元交叉熵(或对数损失),而 tensorflow 教程中使用的是分类交叉熵。他们使用 one-hot 矢量编码来跨多个类别使用这一点。因此,即使对于 2 个类别,您也有一个像这样的标签:[0, 1]。

在二进制情况下,0 是错误情况的标签。这在只有 1 重要的分类情况下不存在,因为在 softmax 分类器中,所有元素的总和都需要为 1。

关于python - 逻辑回归: Bias and cost function in tensorflow,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42439854/

相关文章:

python - Discord BOT与Python,如何让它在我们发送命令的 channel 中回复(完成)

python - 回顾数据框中的上一行并选择特定记录

r - 处理 R 中不平衡的数据 - 错误消息

python - TensorFlow-GPU 导致 python 崩溃

python - 使用 Tensorflow 2.0 进行逻辑回归?

python - 卷积层中的偏差真的会对测试精度产生影响吗?

python - 重复 numpy 数组 x 次

python - 是否可以在不改变位置的情况下重命名字典中的键?

matlab - 如何在 Matlab 中从 RGB 图像创建训练示例?

python - 导出 Tensorflow 估计器