tensorflow - 从 tf.train.AdamOptimizer 获取当前学习率

标签 tensorflow

我想打印出我的神经网络每个训练步骤的学习率。

我知道 Adam 具有自适应学习率,但是有没有办法让我看到这一点(用于张量板中的可视化)

最佳答案

所有优化器都有一个私有(private)变量来保存学习率的值。

adagradgradient descent它被称为self._learning_rate。在 adam它是self._lr

因此,您只需打印 sess.run(optimizer._lr) 即可获取该值。需要 Sess.run 因为它们是张量。

关于tensorflow - 从 tf.train.AdamOptimizer 获取当前学习率,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36990476/

相关文章:

tensorflow - 同时从图中请求多个值

python - 我想创建一个简单的电影推荐系统,其中 Y(i,j)=第 j 个用户评分的电影,如果电影已评分,则 R(i,j)=1,否则 r(i,j)=0

python - tensorflow教程中测试数据的计算

python - reshape 的 tensorflow 维数问题

performance - Tensorflow:如何在模型训练过程中实时监控 GPU 性能?

tensorflow - 在 Keras 中微调 VGG-16 慢速训练

tensorflow - 使用机器学习或深度学习在给出节点到节点映射的情况下预测两个节点之间的链接概率

python - 分布式 tensorflow : Unable to run evaluation-only worker

tensorflow - 在 Bazel 项目中构建 CMake 库

python - 二维数组中每个元素沿第一个维度的索引数组(numpy.、tensorflow)