c++ - 部分卡片上的 cuda 应用程序

标签 c++ c cuda gpu nvidia

我有 Nvidia Tesla s2050;带有 nvidia quadro 卡的主机。带有 CUDA 3.1 的 CentOS 5.5 当我运行 cuda 应用程序时,我想使用 4 个 Tesla c-2050,但不包括主机上的 quadro,以免在将工作平均分配给 5 时落后于整体性能。有什么方法可以实现这个?

最佳答案

我假设您有四个进程和四个设备,尽管您的问题表明您有五个进程和四个设备,这意味着手动调度可能更可取(Tesla 设备处于“共享”模式)。

最简单的方法是使用 nvidia-smi 指定 Quadro 设备“禁止计算”。您还可以指定 Teslas 是“计算专用”的,这意味着在任何给定时间只有一个上下文可以附加到每个 Teslas。

运行 ma​​n nvidia-smi 获取更多信息。

关于c++ - 部分卡片上的 cuda 应用程序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3701808/

相关文章:

c++ - 为什么有些程序员使用字符串作为输入然后对其进行转换?

c++ - 为什么std::vector::iterator::operator->仅向下钻取一级?

c - 如何解决电子邮件的 sscanf 问题?

directx - 我应该立即创建 CUDA 应用程序,还是等待 DirectX 11?

c++ - 推力图;原生CUDA编译问题... Linux

c++ - 字节顺序何时成为一个因素?

c++ - 检测类是否与 std::ostream<< 兼容的特征

c - 什么是哈希表?如何在C语言中创建哈希表?

c++ - 以编程方式获取上次重启的日期/时间

并发,4个CUDA应用竞争获取GPU资源