memory - tensorflow中有没有 "swapping"GPU内存的方法?

标签 memory tensorflow

我正在训练一个超过 GPU 内存(超过 11 GB)的大型模型。我想知道 tensorflow 中是否有任何方法可以将 GPU 内存交换到主内存中。一些效率损失是可以接受的。完全在 CPU 上训练模型解决了内存问题,但速度太慢。

最佳答案

tensorflow 中有一些类可以使用 swap_memory 参数创建网络。

例如对于 RNN,您可以使用 tf.nn.dynamic_rnntf.nn.raw_rnn

还有一个更通用的循环类 tf.while_loop 带有这个参数。

但是恕我直言,没有使用内存交换的通用选项。

只要看看 tensorflow.org 并使用它的搜索功能。您可以使用swap_memory

找到相关类

关于memory - tensorflow中有没有 "swapping"GPU内存的方法?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49440630/

相关文章:

c++ - 用于测试 C 和 C++ 分配器的基准?

ruby-on-rails - 内存在 Ruby 中是如何工作的?

python - 禁用 Tensorflow/Numpy 弃用警告消息

python - Tensorflow dense_to_sparse

python - 为序列 InvalidArgument 构建/训练 1D CNN

java - 为什么 Java 在我的 Linux 服务器上使用这么多内存?

内存寻址

python - 逐个构建 DataFrame 的最快方法是什么?

python - Dataset_factory导入错误: Tensorflow fine-tuning a pre-trained model from an existing checkpoint on custom data

python - TensorFlow DNNClassifier 特征专栏