我是 keras 的新手。
我在一个数据集上运行它,我的目标是减少 logloss。
对于每个时代,它都给我相同的损失值。我很困惑我是否在正确的轨道上。
例如:
Epoch 1/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278
Epoch 2/5
91456/91456 [==============================] - 139s - loss: 3.8019 - val_loss: 3.8278
Epoch 3/5
91456/91456 [==============================] - 143s - loss: 3.8019 - val_loss: 3.8278
Epoch 4/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278
Epoch 5/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278
这里 3.8019 在每个时期都是相同的。应该是少了。
最佳答案
我也遇到了这个问题。想了想,才知道是我的我的输出层上的激活函数 .
我有这个模型来预测二元结果:
model = Sequential()
model.add(Dense(16,input_shape=(8,),activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(1, activation='softmax'))
我需要这个用于二元交叉熵
model = Sequential()
model.add(Dense(16,input_shape=(8,),activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(1, activation='sigmoid'))
我会着眼于您正在尝试解决的问题以及确保您的激活函数是他们需要的输出所需的输出。
关于conv-neural-network - keras 在每个时代都造成相同的损失,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35540269/