这个问题的跟进:
How to save a Tensorflow Checkpoint file from Google Colaboratory in when using TPU mode?
使用 Tensorflow TPU 时保存检查点的官方方法是使用谷歌云服务。
如果对那些不想使用 GCS 的人有解决方法,我正在努力。也许对于每个变量,做一个.eval(),保存变量。然后将保存变量设置为每个变量的“初始”值。
不过,我预见到的一个主要问题是为优化器保存和加载参数。
对于 Keras,权重似乎确实从 TPU 保存到本地
INFO:tensorflow:Copying TPU weights to the CPU
所以我想也有一个通用的解决方法,无需使用 keras。
最佳答案
关于python - 在 Tensorflow 中使用 TPU 时,是否有适当的解决方法来保存本地驱动器中的检查点?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53017571/