我正在尝试使用 Tensorflow 尝试泰坦尼克号 Kaggle 竞赛。
我预处理的列车数据如下所示:
data_x:
PassengerId Pclass Sex Age SibSp Parch Ticket Fare Cabin \ Embarked
1 2 1 1 38.0 1 0 500 71.2833 104
2 3 3 1 26.0 0 0 334 7.9250 0
3 4 1 1 35.0 1 0 650 53.1000 130
4 5 3 0 35.0 0 0 638 8.0500 0
data_y:
Survived
0
1
1
1
0
softmax 函数应该能够预测乘客是否幸存,因为它是二进制的,对吗?
这就是我构建模型的方法:
X = tf.placeholder(tf.float32, [None, data_x.shape[1]])
Y_ = tf.placeholder(tf.float32, [None, 1])
W = tf.Variable(tf.truncated_normal([10, 1]))
b = tf.Variable(tf.zeros([1]))
# Parameters
learning_rate = 0.001
#The model
Y = tf.matmul(X,W) + b
# Loss function
entropy = tf.nn.softmax_cross_entropy_with_logits(labels=Y_, logits=Y)
loss = tf.reduce_mean(entropy) # computes the mean over examples in the batch
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss)
acc = tf.equal(tf.argmax(Y_, 1), tf.argmax(Y, 1))
acc = tf.reduce_mean(tf.cast(acc, tf.float32))
tf.summary.scalar('loss', loss)
tf.summary.scalar('accuracy', acc)
merged_summary = tf.summary.merge_all()
init = tf.global_variables_initializer()
最后是训练部分:
with tf.Session() as sess:
sess.run(init)
writer = tf.summary.FileWriter("./graphs", sess.graph)
for i in range(1000):
_, l, summary = sess.run([optimizer, loss, merged_summary], feed_dict={X: data_x, Y_: data_y})
writer.add_summary(summary, i)
if i%100 == 0:
print (i)
print ("loss = ", l)
但是从第一步开始loss就等于0...
这是 Tensorboard 可视化:
知道这里发生了什么吗?
最佳答案
实际上,我认为您对 softmax 的理解是错误的。 它将输出转换为概率分布。 然而,由于你的输出只有一个神经元,softmax 总是将其转换为 1。
如果你想要softmax + logits的交叉熵,你需要输出2个神经元,一个用于预测概率为1(正),一个用于预测概率为0(负)。您还需要更改标签,使正例具有标签 [1, 0]
,负[0, 1]
。然后,您可以使用交叉熵,它应该可以工作。
编辑:另一个不错的选择可能是使用
tf.nn.sigmoid_cross_entropy_with_logits
损失函数。 Sigmoid 转换为 [0, 1]
交叉熵所需的间隔,并且不担心(可能的)其他输出。这样,它就可以与您当前的标签和架构配合使用。
关于python - 损失一开始就等于0,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45758023/