python - Tensorboard 中的 HParams、运行 ID 和命名

标签 python tensorflow pytorch tensorboard

我正在使用 SummaryWriter.add_hparams(params, values) 在我的 Seq2Seq 模型训练期间记录超参数。我的运行以时间戳命名,例如 2020-09-10 14-50-27。在 Tensorboard 的 HParams 选项卡中,一切看起来都很好,但 HParam Trial ID 不同;他们还有另一串数字,如下所示:2020-09-10 14-50-27/1599742915.9712806。这些也作为不同的运行出现在“标量”选项卡中,这非常不方便。有没有办法关闭这个额外的命名或阻止它们出现在“标量”选项卡中?我像这样使用 pytorch 及其摘要编写器:

params = {
    'max_epochs' : max_epochs,
    'learning_rate': learning_rate,
    'batch_size': batch_size,
    'optimizer_name': optimizer_name,
    'dropout_fc': dropout_fc
}
values = {
    'hparam/hp_total_time': t1_stop - t0_start,
    'hparam/score' : best_score
}

tb.add_hparams(params, values)

最佳答案

正如 Aniket 提到的,您的问题描述不足以完全确定问题所在。

但是,如果您使用的是 Pytorch,我怀疑您可能指的是 this issue 中也报告的行为. add_hparams 方法在调用时创建一个带有当前时间戳的新子文件夹,在您的例子中为 1599742915.9712806。 TensorBoard 使用分层文件夹结构来组织(组)运行,这就是为什么 2020-09-10 14-50-27/1599742915.97128062020-09-10 14-50-27 显示为不同的运行。

根据我上面提到的问题,似乎没有修改此行为的“官方”方法,但如果您阅读评论,您会发现一些已提议提供帮助的自定义类。

关于python - Tensorboard 中的 HParams、运行 ID 和命名,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63830848/

相关文章:

python - 使用 mechanize 抓取动态内容时出现问题

tensorflow - 如何在不从源安装tensorflow的情况下使用SSE4.1指令?

python - 为什么 numpy.round 不会舍入我的数组?

deep-learning - Pytorch 二阶导数返回 None

python - 如何快速获取使用 PyCharm 和 Pytorch 的文档

python - 在 Django 中更新查询集中一堆记录的最快方法

python - 将列表的列表转换为元组列表的列表

python - 如何使用 PyTorch 构建 LSTM AutoEncoder?

python - 根据程度对图节点进行排序

image - 在 Tensorflow 中调整图像保留纵横比