【并行计算-CUDA开发】CUDA存储器模型

时间:2021-07-12 14:11:45
CUDA存储器模型
除了执行模型以外,CUDA也规定了存储器模型(如图2所示)和一系列用于主控CPU与GPU间通信的不同地址空间。图中红色的区域表示GPU片内的高速存储器,橙色区域表示DRAM中的的地址空间。
【并行计算-CUDA开发】CUDA存储器模型
 图2 CUDA存储器模型
        首先,是最底层的寄存器(register,REG)。对每个线程来说,寄存器都是私有的--这与CPU中一样。
        如果寄存器被消耗完,数据将被存储在本地存储器(local memory)。本地存储器对每个线程也是私有的,但是数据时被保存在帧缓冲区DRAM中,而不是片内的寄存器或者缓存中。线程的输入和中间输出变量将被保存在寄存器或者本地存储器中。
        然后是用于线程间通信的共享存储器。共享存储器是一块可以被同一block中的所有thread(上节提到过,一个block最多可以有512个thread)访问的可读写存储器。访问共享存储器几乎和访问寄存器一样快,是实现线程间通信的延迟最小的方法。共享存储器可以实现许多不同的功能,如用于保存共用的计数器(例如计算循环迭代次数)或者block的公用结果(例如计算512个数的平均值,并用于以后的计算)。
        除此以外,还有两种只读的地址空间—常数存储器和纹理存储器(constant memory and texture memory),它们是利用GPU用于图形计算的专用单元发展而来的。
        常数存储器空间较小(只有64k),支持随机访问。
        纹理存储器尺寸则大得多,并且支持二维寻址(传统的缓存只支持一维寻址)。
        这两种存储器实际存在于帧缓冲区DRAM中,但由于它们的只读性质,在GPU片内可以进行缓存,从而加快访问速度。这两种存储器并不要求缓存一致性—它们是只读的。但这也意味着如果CPU或者GPU要更改常数存储器或者纹理存储器的值,缓存中的值在更新完成之前也无法使用。CUDA程序中,常数存储器用于存储需要经常访问的只读参数,而是用插值或者滤波的纹理存储器访问对大尺寸的二维或者三维图象或者采样序列进行高带宽的流式访问。
       最后是全局存储器(global memory),使用的是普通的显存。整个网格中的任意线程都能读写全局存储器的任意位置,并且既可以从CPU访问,也可以从CPU访问。由于全局存储器是可写的,GPU片内没有对其进行缓存。