machine-learning - 全卷积网络中上采样层的 "learning multiple"应该是多少?

标签 machine-learning neural-network deep-learning caffe conv-neural-network

我正在尝试训练全卷积网络 (FCN) 以进行密集预测。

paper 的作者提到:

“我们将 2× 上采样初始化为双线性插值,但允许学习参数。”

当我读到他们的training prototxt file时,这些层的学习倍数是

我是否应该将此学习倍数更改为非零值以让这些层被学习?

谢谢

最佳答案

引用谢尔哈默的话

​In further experiments​ on PASCAL VOC we found that learning the interpolation parameters made little difference, and fixing these weights gives a slight speed-up since the interpolation filter gradient can be skipped.

因此,如果您希望他们学习,您可以保持 lr_mult 这种方式或更改为非零值。如果需要,您还可以在solver.prototxt中设置lr_policy

详情参见 this thread in caffe-users group

关于machine-learning - 全卷积网络中上采样层的 "learning multiple"应该是多少?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43326206/

相关文章:

python - 有加速暴力 'tally' 算法的替代方法吗?

machine-learning - 用于机器学习的纸牌游戏建模

machine-learning - 具有 3D 卷积层的变分自编码器交叉熵损失 (xent_loss)

python - 仅在 max_iter 之后停止训练 MLPRegressor (solver=lbfgs),而不是因为 "tol"

machine-learning - CS231n上softmax的解析梯度

tensorflow - 当验证数据的准确性提高但损失也增加时该怎么办?

security - 如何处理高度不平衡的数据集

python - 批处理划分时 TensorFlow CNN 的行为有所不同

machine-learning - 神经网络为所有输入产生相似的模式

python - 如何向keras添加自定义指标? (平均绝对误差百分比)