machine-learning - 使用 Caffe 没有提高 RMSprop、Adam、AdaDelta 测试精度

标签 machine-learning computer-vision deep-learning caffe pycaffe

我正在 Tesla K40 上的图像数据集上使用 Caffe 进行微调。使用batch size=47solver_type=SGDbase_lr=0.001lr_policy="step"momentum=0.9gamma=0.1训练损失减少,测试准确度2%- 100 迭代中达到 50%,这非常好。

当使用其他优化器(例如 RMSPROPADAMADADELTA)时,训练损失几乎保持不变在 1000 次迭代后,测试准确性甚至没有提高。

对于 RMSPROP,我已更改了上述的相应参数 here .

对于 ADAM,我已更改了上述的相应参数 here

对于 ADADELTA,我已更改了上述的相应参数 here

有人可以告诉我我做错了什么吗?

最佳答案

我看到了与 pir 类似的结果:当给定 SGD 使用的相同的 base_lr 时,Adam 会发散。当我将base_lr减少到原始值的1/100时,Adam突然收敛,并给出了很好的结果。

关于machine-learning - 使用 Caffe 没有提高 RMSprop、Adam、AdaDelta 测试精度,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32909986/

相关文章:

python - pybrain - ClassificationDataSet - 如何理解使用 SoftmaxLayer 时的输出

javascript - 神经网络反向传播不起作用

python - 如何在 Keras 或 Tensorflow 中将 L1 范数添加到损失函数中?

image-processing - SIFT预测

opencv - 使图像的背景变白

python - 用 U2Net 去除背景太强了

tensorflow - 用于在 keras 中调用的自定义宏

opencv - 瞳孔中心椭圆拟合

python - 没有子文件夹的 Keras 图像

python - 我的神经网络模型有什么问题?