我正在尝试训练全卷积网络 (FCN) 以进行密集预测。
paper 的作者提到:
“我们将 2× 上采样初始化为双线性插值,但允许学习参数。”
当我读到他们的training prototxt file时,这些层的学习倍数是零。
我是否应该将此学习倍数更改为非零值以让这些层被学习?
谢谢
最佳答案
引用谢尔哈默的话
In further experiments on PASCAL VOC we found that learning the interpolation parameters made little difference, and fixing these weights gives a slight speed-up since the interpolation filter gradient can be skipped.
因此,如果您希望他们学习,您可以保持 lr_mult
这种方式或更改为非零值。如果需要,您还可以在solver.prototxt中设置lr_policy
。
关于machine-learning - 全卷积网络中上采样层的 "learning multiple"应该是多少?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43326206/