我尝试在支持 CUDA 的较新 Nvidia RTX3060 上运行我的 PyTorch 模型(在 Nvidia RTX2080 上训练)。可以加载模型并执行它。如果我使用 --no_cuda
标志在 CPU 上运行它,它会顺利运行并返回正确的预测,但如果我想使用 CUDA 运行它,它只会返回没有意义的错误预测。
卡的不同 GPU 架构是否会影响预测?
最佳答案
好吧,问题似乎出在两种架构的不同浮点上。需要设置torch.backends.cuda.matmul.allow_tf32 = false
标志,以提供不同架构的模型的稳定执行。
关于neural-network - 使用在 RTX 2080 或 RTX 3060 上训练的 Pytorch 模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/69582900/