我正在遵循 TensorFlow Retraining for Poets 的说明. GPU 利用率似乎很低,所以我检测了 retrain.py
按照 Using GPU 中的说明编写脚本.日志验证了 TF 图是在 GPU 上构建的。我正在重新训练大量的类(class)和图像。 请帮我调整 TF 和 the retraining script 中的参数使用 GPU .
我知道 this question我应该减少批量大小。这个脚本的“批量大小”由什么构成并不明显。我有 60 个类(class)和 1MM 的训练图像。它首先制作 1MM 瓶颈文件。那部分是 CPU 并且很慢,我理解这一点。然后它以 4,000 个步骤进行训练,在该步骤中每次需要 100 张图像。这是批次吗?如果我减少每一步的图像数量,GPU 利用率会上升吗?
您的帮助将不胜感激!
最佳答案
我通常会做下面的事情。
tf.test.is_gpu_available()
watch -n 0.1 nvidia-smi
train_batches = train.shuffle(SHUFFLE_BUFFER_SIZE).batch(BATCH_SIZE)
train_batches = train_batches.prefetch(1) # This will prefetch one batch
batch_size = 128
关于python - 在 TensorFlow 重新训练诗人期间 GPU 利用率为 0%,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50669990/