我发现有时将一个循环分成两个或更多循环会更快
for (i=0; i<AMT; i++) {
a[i] += c[i];
b[i] += d[i];
}
||
\/
for (i=0; i<AMT; i++) {
//a[i] += c[i];
b[i] += d[i];
}
for (i=0; i<AMT; i++) {
a[i] += c[i];
//b[i] += d[i];
}
在我的桌面 win7、AMD Phenom(tm) x6 1055T 上,双循环版本运行速度更快,时间减少了大约 1/3。
但是如果我正在处理作业,
for (i=0; i<AMT; i++) {
b[i] = rand()%100;
c[i] = rand()%100;
}
将 b 和 c 的赋值分成两个循环并不比在一个循环中更快。
我认为操作系统使用一些规则来确定某些代码是否 可以由多个处理器运行。
我想问一下我的猜测是否正确,如果我是正确的,那么多个处理器会出现的规则或场合是什么? 自动(无需线程编程)用于加速我的程序?
最佳答案
有可能你的编译器是vectorizing更简单的循环。在汇编器输出中,您会看到这是使用 SIMD 指令(如 Intel's SSE )一次处理比一个数字更大的数据 block 的编译程序。自动向量化是一个难题,编译器可能无法向量化同时更新 a
和 b
的循环。这可以部分解释为什么将复杂循环分成两部分会更快。
在“赋值”循环中,对 rand()
的每次调用都取决于先前调用的输出,这意味着向量化本质上是不可能的。将循环分成两部分不会像第一种情况那样使其从 SIMD 指令中受益,因此您不会看到它运行得更快。查看编译器生成的汇编代码会告诉您编译器执行了哪些优化以及它使用了哪些指令。
即使编译器对循环进行矢量化,程序也不会使用多个 CPU 或线程;没有并发。发生的情况是,一个 CPU 能够并行在多个数据点上运行单个执行线程。并行和并发编程之间的区别很微妙但很重要。
缓存局部性也可以解释为什么将第一个循环分成两部分使其运行得更快,但不能解释为什么将“赋值”循环分成两部分却不能。 “赋值”循环中的 b
和 c
可能足够小以至于它们适合缓存,这意味着循环已经具有最佳性能和中断它进一步没有带来任何好处。如果是这种情况,使 b
和 c
变大将迫使循环开始破坏缓存并将循环分成两部分将获得预期的好处。
关于c++ - 使用多个处理器加速程序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15757511/