我想知道在 GPU 上训练的模型是否可以用于使用 CPU 运行推理? (反之亦然) 谢谢你!
最佳答案
只要您的模型没有显式设备分配,您就可以执行此操作。 IE,如果您的模型具有像 with tf.device('gpu:0')
这样的 block ,那么当您在没有 GPU 的模型上运行它时,它会提示。
在这种情况下,您必须确保导入的模型没有显式设备分配,例如,但在 import_meta_graph 中使用 clear_devices
参数
关于tensorflow - 在 GPU 上训练的模型可以在 CPU 上用于推理,反之亦然吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40980035/