我正在寻找一个不需要 32 位精度的应用程序,12-16 位就足够了。
推力是否能够处理 float16(即将两个 16 位精度 float 打包/解包为 32 位字)?
我应该使用定点运算吗?
最佳答案
CUDA 硬件不包含对半精度算术的 native 支持,仅支持与浮点
之间的转换。
由于 C 没有内置的 half
类型,因此转换内在函数使用 unsigned Short
:
unsigned short __float2half_rn( float );
float __half2float( unsigned short );
关于c++ - 推力可以处理半精度 float (float16/IEEE 754-2008)吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11755221/