我想打印出我的神经网络每个训练步骤的学习率。
我知道 Adam 具有自适应学习率,但是有没有办法让我看到这一点(用于张量板中的可视化)
最佳答案
所有优化器都有一个私有(private)变量来保存学习率的值。
在 adagrad和 gradient descent它被称为self._learning_rate
。在 adam它是self._lr
。
因此,您只需打印 sess.run(optimizer._lr)
即可获取该值。需要 Sess.run 因为它们是张量。
关于tensorflow - 从 tf.train.AdamOptimizer 获取当前学习率,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36990476/