machine-learning - 在 TensorFlow 中存储摘要编写器的多次运行的建议做法是什么?

标签 machine-learning neural-network tensorflow conv-neural-network tensorboard

我正在学习使用 TensorBoard,每次启动 Tensorboard 时,我的终端都会收到以下消息:

WARNING:tensorflow:Found more than one graph event per run. Overwriting the graph with the newest event.

我认为是因为我已经使用相同的名称多次运行相同的模型。我只想多次运行我的模型,并能够使用 tensorflow 检查它在做什么。刚刚重新运行:

tensorboard --logdir=path/to/log-directory

这不是通常的做法吗?或者,当我想多次运行相同的模型并探索不同的学习算法、步长、初始化等时,对做此类工作的建议是什么?每次都设置一个新的日志目录真的有必要吗?

最佳答案

当您导出图形中的模型时, tensorflow 会创建一个包含日志信息的新文件。因此,每次运行它时,新信息都会添加到同一文件夹中。

由于张量板无法区分一种模型和其他模型,因此会显示警告。所以是的,您应该在每次迭代中使用不同的日志文件夹。事实上,一些示例在运行图表之前删除了日志目录。

关于machine-learning - 在 TensorFlow 中存储摘要编写器的多次运行的建议做法是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38002357/

相关文章:

python - 为什么 numpy.round 不会舍入我的数组?

python - Keras:可重现结果 CPU 上的简单 MLP

javascript - Tensorflow.js:简单的线性回归效果不佳

python - 控制 Scikit Learn 中逻辑回归的阈值

python - TensorFlow 模型不执行任何训练

machine-learning - 用于公式分类/计算的人工神经网络

definition - 神经网络定义

python - InvalidArgumentError : Expected 'tf.Tensor(False, shape=(), dtype=bool)' to be true. 汇总数据:b'没有文件匹配模式:

python - 卷积自动编码器图像尺寸误差

r - Rpart包生成的测试规则