cuda常量内存引用

标签 cuda gpu-constant-memory

我在常量内存中有一个数组(它是一个全局变量),并通过函数调用 cudaGetSymbolAddress 获得了对它的引用。当我使用这个引用来获取常量数据而不是使用全局变量时,我的内核运行缓慢。这是什么原因?

__constant__ int g[2] = {1,2};
// __device__ int g[2] = {1,2};

// kernel: use by reference
__global__ void add_1( int *a, int *b, int *c, int *f )
{
    int tid = blockIdx.x * blockDim.x + threadIdx.x;
    c[tid] = f[0] * a[tid] + f[1] * b[tid];
}

// kernel: use global variable
__global__ void add_2( int *a, int *b, int *c, int *f )
{
    int tid = blockIdx.x * blockDim.x + threadIdx.x;
    c[tid] = g[0] * a[tid] + f[1] * b[tid];
}

int main()
{
    ......
    // a,b,c are large arrays in device memory of size 40960.

    int *f;
    cudaGetSymbolAddress( (void **)&f, (char *)&g);

    add_1 <<< 160, 256 >>> ( a, b, c, f );

    ......
}

这是示例代码,warp 中的所有线程同时加载相同的位置。注释代码是通过直接访问常量内存

解释为什么不使用常量内存缓存 (通过 talonmis)

原因是缺少常量缓存。
只有当编译器在显式标记为处于常量状态空间的变量上发出特定的 PTX 指令 (ld.const) 时,才会发生缓存访问。编译器知道这样做的方式是声明变量时 __constant__ -- 它是影响代码生成的静态编译时属性。同样的过程不能在运行时发生。

如果您在全局内存中传递一个指针并且编译器无法确定常量状态空间中的指针,则它不会生成正确的 PTX 以通过常量缓存访问该内存。因此,访问速度会变慢。

未解答的问题

为什么即使数组 g声明为 __device__变量,当引用它时代码会变慢。通过查看 PTX代码,用于将全局内存加载到寄存器:
  • ld.global.s32的2条说明使用,它将 4 个字节加载到寄存器。 (在代码中使用引用)
  • ld.global.v2.s32的1条指令使用,它将 8 个字节加载到 2 个寄存器,(在使用全局变量的代码中)

  • 有什么区别,任何文档引用将不胜感激?

    最佳答案

    与全局内存不同,对常量内存的访问如果不是统一的(一个(计算能力 1.x 的一半)warp 的所有线程访问相同的地址,则它们将被序列化(拆分为多个事务)。

    因此,如果访问可能是统一的,则仅使用常量内存。

    关于cuda常量内存引用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12933469/

    相关文章:

    c++ - 如何将表面对象绑定(bind)到二维倾斜阵列?

    c++ - 在 cuda 设备代码中使用 boost 等库

    cuda - NVIDIA __constant内存: how to populate constant memory from host in both OpenCL and CUDA?

    memory - 解释 ptxas 的详细输出,第一部分

    cuda - 将参数按值传递给内核函数时,参数复制到哪里?

    c++ - 不允许从全局函数调用宿主函数

    c++ - CUDA 拆分字符数组

    c++ - CMake将C++参数传递给nvcc

    c - 使用 CUDA 5 的 cudaMemcpyToSymbol 出错

    CUDA 常量存储库