我有一个带有 4 个隐藏层的函数拟合网络。
我需要为第一层和第三层找到合适的权重, 而第二和第四层是某种归一化层,不需要学习,所以我只是通过设置它们来卡住它们学习率为零。
我的问题是:
我应该为这两个卡住层定义后向函数吗?
我saw在caffe中,没有任何可学习参数的池化层具有后向功能。
提前致谢,
最佳答案
是的,您需要向后传递,否则您的学习将停止在这一层(下面的任何内容都不会学习)。即使对于不可学习的层,您也需要计算有效梯度。
关于machine-learning - 是否有必要为卡住层定义后向函数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42538535/