machine-learning - Tensorflow - CPU 和 GPU 资源耗尽错误

标签 machine-learning tensorflow gpu cpu

当我使用 MNIST 数据集测试 CNN 代码时,使用 GPU(GTX 1060,8GB)出现资源耗尽错误。

但是,当我使用 CPU(i7-6700,RAM:16GB)测试相同的代码时,没有资源耗尽错误。

现在,我的问题是,CPU 和 GPU 之间有什么区别?计算过程有什么不同吗?或者只是因为GPU内存大小和CPU RAM大小之间的差异?(实际上,我不确定在使用CPU时,它是否受RAM大小影响?)

最佳答案

也许你的GPU内存不够,你可以尝试减少batchsize,或者你能做的唯一方法是使用具有更大GPU内存的更好的计算机。我有同样的问题,但是我的数据的一个batch_size足够大计算机来计算。所以我将图像分成 4 个,分别训练它们,最后一步将它们组合起来。结果还不错。

关于machine-learning - Tensorflow - CPU 和 GPU 资源耗尽错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42894518/

相关文章:

machine-learning - 从产品评论中提取特征

python - Tensorflow找不到GPU

TensorFlow:读取卡住的模型,添加操作,然后保存到新的卡住模型

python - 在 Python 中使用 OpenCL 并行化循环

python - 线性回归没有按我的预期工作

python - 使用 scikit learn 获取信息量最大的特征时遇到问题?

machine-learning - yolo算法的坐标输出代表什么?

c++ - 在 Python 中训练神经网络并在 C++ 中部署

tensorflow - Keras 在具有 python 3.5 和 Tensorflow 1.4 的 Pycharm 上不使用 GPU

matlab - 对于大型阵列,GPU在Matlab中的gpuArray矩阵上崩溃