neural-network - 使用在 RTX 2080 或 RTX 3060 上训练的 Pytorch 模型

标签 neural-network pytorch gpu nvidia

我尝试在支持 CUDA 的较新 Nvidia RTX3060 上运行我的 PyTorch 模型(在 Nvidia RTX2080 上训练)。可以加载模型并执行它。如果我使用 --no_cuda 标志在 CPU 上运行它,它会顺利运行并返回正确的预测,但如果我想使用 CUDA 运行它,它只会返回没有意义的错误预测。 卡的不同 GPU 架构是否会影响预测?

最佳答案

好吧,问题似乎出在两种架构的不同浮点上。需要设置torch.backends.cuda.matmul.allow_tf32 = false标志,以提供不同架构的模型的稳定执行。

关于neural-network - 使用在 RTX 2080 或 RTX 3060 上训练的 Pytorch 模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/69582900/

相关文章:

machine-learning - 计算资源有限的机器学习

python - 如何直接在 GPU 或另一个张量的设备上创建张量?

c++ - CUDA 内存不返回主机

c++ - 如何在 CUDA 中实现压缩表?

java - 提高 WEKA 多层感知器模型的准确性

numpy - ValueError : Cannot feed value of shape (128, 28, 28) 对于张量 'Placeholder:0' ,其形状为 '(?, 784)'

android - 在移动平台上使用 SVM 或神经网络哪个更​​有效?

python - 向量的 torch.mean(data, 0) 和 torch.mean(data) 的不同行为

python - 用于 Transformer DNN 模型的基于时间序列的数据的位置编码

OpenCL 2.0 设备命令队列不断填​​满并停止执行