旧 float 的一个技巧是从不乘以 2,而是将操作数与自身相加,如 2*a = a + a。今天,使用 SSE/SSE2/SSSE3/NEON/... 指令集等的旧技巧是否仍然可行?我的操作数是一个 vector (比如,4 个 float ,我想乘以 2)。乘以 3、4 ...怎么样?
最佳答案
我仍在努力寻找一个例子来说明这会在哪些方面有所作为。我的直觉是,如果延迟是一个问题,那么在某些情况下 x+x
会更好,但如果延迟不是问题并且只有吞吐量很重要,那么它可能会更糟。但首先让我们讨论一些硬件。
让我坚持使用 Intel x86 处理器,因为这是我最了解的。让我们考虑以下几代硬件:Core2/Nehalem、SandyBridge/IvyBridge 和 Haswell/Broadwell。
SIMD 浮点运算操作的延迟和吞吐量:
- 加法的延迟是 3。
- 除 Broadwell 外,乘法延迟为 5。
- 在 Broadwell 上乘法的延迟为 3。
- 加法吞吐量为1。
- 除了 Haswell 和 Broadwell,乘法的吞吐量是一个 1。
- 在 Haswell 和 Broadwell 上,multiplicatin 的吞吐量为 2。
- 没有 FMA 的加法和乘法的吞吐量是 2。
- FMA 的延迟时间为 5
- FMA 的吞吐量为 2。这相当于加法和乘法吞吐量为 4。
这是我实际用于生成因子为 2 的 Mandelbrot 集的案例。在主循环中,最关键的两行代码是:
x = x*x - y*y + x0;
y = 2*xtemp*y + y0;
这里的所有变量都是 SIMD(SSE 或 AVX)寄存器,所以我一次作用于多个像素(4 个 SSE,8 个 AVX 用于单浮点)。为此,我正在使用围绕内在函数的 SIMD 类。对于 y
我可以代替
y = xtemp*y + xtemp*y + y0
FMA 怎么样?
y = fma(2*xtemp, y, y0)
或
y = xtemp*y + fma(xtemp, y, y0);
有很多变化可以尝试。我没有尝试过 y=xtemp*y + xtemp*y + y0
但我认为它会更糟。顺便说一下,FMA 结果证明,到目前为止,我在 Haswell 系统上实现它的方式并没有多大帮助。使用 FMA,我的帧速率仅增加了 15% 左右,而当我从使用 SSE 的 4 像素到使用 AVX 的 8 像素时,它几乎翻了一番。
编辑:这里有一些我认为会有所作为的案例,但要么它们在实践中没有,要么它们没有意义去做。
考虑这种情况
for(int i=0; i<n; i++) y[i] = 2*x[i];
在这种情况下,延迟无关紧要,吞吐量很重要。在 Haswell 和 Broadwell 上,乘法的吞吐量是加法的两倍,因此在这种情况下,执行 x+x
似乎更糟糕,但由于 Haswell/Broadwell 每个时钟周期只能写入 32 字节这没有什么区别。
在这种情况下,使用 x+x
似乎会更好。
for(int i=0; i<n; i++) prod = prod * (2*x[i]);
相反,您可以这样做:
for(int i=0; i<n; i++) prod = prod * (x[i]+x[i]);
在这两种情况下都没有区别,因为它们主要由 prod
的乘法延迟决定。但是,如果您展开循环的次数足够多以至于延迟无关紧要,那么通常情况下第二种情况会更好,因为所有处理器至少在每个时钟周期都可以进行加法和乘法运算。尽管 Haswell 和 Broadwell他们可以在每个时钟周期进行两次乘法运算,他们也可以使用 FMA 在每个时钟周期进行两次乘法和加法运算,因此即使在它们上,这也会更好。
但是,在这种情况下,明智的做法是
for(int i=0; i<n; i++) prod *= x[i];
prod *= pow(2,n);
所以没有必要用x+x
代替2*x
。
关于c++ - 有没有更快的方法在 SIMD 上乘以 2(不使用乘法)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25556683/