cuda - OpenCL get_local_id() 的成本

标签 cuda opencl nvidia

我有一个简单的扫描内核,它计算循环中几个 block 的扫描。我注意到当 get_local_id() 存储在局部变量中而不是在循环中调用它时,性能会有所提高。所以用代码总结一下:

__kernel void LocalScan_v0(__global const int *p_array, int n_array_size, __global int *p_scan)
{
    const int n_group_offset = get_group_id(0) * SCAN_BLOCK_SIZE;
    p_array += n_group_offset;
    p_scan += n_group_offset;
    // calculate group offset

    const int li = get_local_id(0); // *** local id cached ***
    const int gn = get_num_groups(0);
    __local int p_workspace[SCAN_BLOCK_SIZE];
    for(int i = n_group_offset; i < n_array_size; i += SCAN_BLOCK_SIZE * gn) {
        LocalScan_SingleBlock(p_array, p_scan, p_workspace, li);

        p_array += SCAN_BLOCK_SIZE * gn;
        p_scan += SCAN_BLOCK_SIZE * gn;
    }
    // process all the blocks in the array (each block size SCAN_BLOCK_SIZE)
}

在 GTX-780 上的吞吐量为 74 GB/s,同时:

__kernel void LocalScan_v0(__global const int *p_array, int n_array_size, __global int *p_scan)
{
    const int n_group_offset = get_group_id(0) * SCAN_BLOCK_SIZE;
    p_array += n_group_offset;
    p_scan += n_group_offset;
    // calculate group offset

    const int gn = get_num_groups(0);
    __local int p_workspace[SCAN_BLOCK_SIZE];
    for(int i = n_group_offset; i < n_array_size; i += SCAN_BLOCK_SIZE * gn) {
        LocalScan_SingleBlock(p_array, p_scan, p_workspace, get_local_id(0));
        // *** local id polled inside the loop ***

        p_array += SCAN_BLOCK_SIZE * gn;
        p_scan += SCAN_BLOCK_SIZE * gn;
    }
    // process all the blocks in the array (each block size SCAN_BLOCK_SIZE)
}

在相同的硬件上只有 70 GB/s。唯一的区别是对 get_local_id() 的调用是在循环内部还是外部。 LocalScan_SingleBlock() 中的代码在 this GPU Gems article 中有详细描述。 .

现在这带来了一些问题。我总是想象线程 id 存储在某个寄存器中,并且访问它与访问任何线程局部变量一样快。似乎并非如此。我总是习惯于将本地 id 缓存在一个变量中,这是一个不愿在循环中调用函数的老“C”程序员的习惯,他希望它每次都返回相同的值,但我没有真的不认为这会有什么不同。

关于为什么会这样有什么想法吗?我没有对编译后的二进制代码进行任何检查。有没有人有同样的经历?和CUDA中的threadIdx.x一样吗? ATI平台怎么样?是否在某处描述了这种行为?我快速浏览了 CUDA 最佳实践,但没有找到任何东西。

最佳答案

这只是一个猜测,但根据 Khronos 页面

http://www.khronos.org/registry/cl/sdk/1.0/docs/man/xhtml/get_local_id.html

get_local_id() 未定义为返回常量值(仅仅是 size_t)。这可能意味着,就编译器所知,与常量 local_id 相比,它可能不允许执行某些优化,因为函数值的返回值在编译器看来可能会发生变化(即使它不会针对每个线程)

关于cuda - OpenCL get_local_id() 的成本,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19027934/

相关文章:

c++ - 在可执行文件中链接 CUDA 文件时出现 cuSparse 函数的多个定义错误

CUDA PTX 代码 %envreg<32> 特殊寄存器

c - 浮点大小、矩阵乘法、OpenCL、套接字。诡异的

installation - NVML 库路径

c++ - CUDA 指针的 reintepret_cast 行为?

tensorflow - 支持 Nvidia CUDA Toolkit 9.2

cuda - 如何将我现有的 .cpp 代码与 cuda 一起使用

c++ - 推力位移 vector

cuda - 设备带宽的含义

c - OpenCL C 程序给出奇怪的输出