conv-neural-network - keras 在每个时代都造成相同的损失

标签 conv-neural-network keras

我是 keras 的新手。

我在一个数据集上运行它,我的目标是减少 logloss。
对于每个时代,它都给我相同的损失值。我很困惑我是否在正确的轨道上。

例如:

Epoch 1/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278
Epoch 2/5
91456/91456 [==============================] - 139s - loss: 3.8019 - val_loss: 3.8278
Epoch 3/5
91456/91456 [==============================] - 143s - loss: 3.8019 - val_loss: 3.8278
Epoch 4/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278
Epoch 5/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278

这里 3.8019 在每个时期都是相同的。应该是少了。

最佳答案

我也遇到了这个问题。想了想,才知道是我的我的输出层上的激活函数 .

我有这个模型来预测二元结果:

model = Sequential()
model.add(Dense(16,input_shape=(8,),activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(1, activation='softmax'))

我需要这个用于二元交叉熵
model = Sequential()
model.add(Dense(16,input_shape=(8,),activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(1, activation='sigmoid'))

我会着眼于您正在尝试解决的问题以及确保您的激活函数是他们需要的输出所需的输出。

关于conv-neural-network - keras 在每个时代都造成相同的损失,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35540269/

相关文章:

python - 为什么我的代码抛出 KeyError : 'epochs' when I implemented Fully Convolutional Networks by Keras

python - Keras 字符级 LSTM 文本分类未训练

python - 从 keras 模型中提取特征到数据集中

python - Keras GRU/LSTM层输入维度错误

image-processing - 全局池有什么作用?

performance - 如何将准确度绘制为 Keras 中处理时间的函数?

Tensorflow ResNet 模型加载使用 **~5 GB 的 RAM** - 而从权重加载仅使用~200 MB

python - function_f()(variable_v) 的含义和工作方式( () 中后跟变量的函数)

python - 我的验证数据存在过度拟合问题

python - Tensorflow - 保存模型