我正在用 Java 和 C++ 编写各种等效程序来比较这两种语言的速度。这些程序在循环中使用大量数学计算。
有趣的是,当我使用 -O3
时,我发现 C++ 击败了 Java。当我使用 -O2
时,Java 击败了 C++。
我应该使用哪种 g++ 编译器优化来得出比较结论?
我知道这并不像听起来那么简单,但我想了解一些有关 Java 和 C++ 之间的延迟/速度比较的见解。
最佳答案
Interestingly enough I find that C++ beats Java when I use -O3. When I use -O2 Java beats C++.
-O3
一定会打败-O2
在微基准测试中,但是当您对更实际的应用程序(例如 FIX 引擎)进行基准测试时,您会看到 -O2
节拍-O3
在性能方面。
据我所知,-O3
在编译小型和数学代码片段方面做得非常好,但对于更现实和更大的应用程序,它实际上可能比 -O2
慢。 。通过尝试积极优化所有内容(即内联、矢量化等),编译器将生成巨大的二进制文件,导致 cpu 缓存未命中(即尤其是指令缓存未命中)。这是 Hotspot JIT 选择不优化大型方法和/或非热点方法的原因之一。
需要注意的一件重要事情是 JIT 使用方法作为适合优化的独立单元。在 your previous questions ,您有以下代码:
int iterations = stoi(argv[1]);
int load = stoi(argv[2]);
long long x = 0;
for(int i = 0; i < iterations; i++) {
long start = get_nano_ts(); // START clock
for(int j = 0; j < load; j++) {
if (i % 4 == 0) {
x += (i % 4) * (i % 8);
} else {
x -= (i % 16) * (i % 32);
}
}
long end = get_nano_ts(); // STOP clock
// (omitted for clarity)
}
cout << "My result: " << x << endl;
但是此代码JIT 不友好,因为热代码块不在其自己的方法中。为了获得主要的 JIT yield ,您应该将代码块放置在其自己的方法的循环内。 您的方法执行热代码块而不是热方法。包含 for
的方法循环可能只被调用一次,因此 JIT 不会对此执行任何操作。
When comparing Java with C++ for speed should I compile the C++ code with -O3 or -O2?
好吧,如果你使用 -O3
对于微基准测试,您将获得惊人的快速结果,这对于更大、更复杂的应用程序来说是不现实的。这就是为什么我认为法官使用 -O2
而不是-O3
。例如,our garbage-free Java FIX engine比 C++ FIX 引擎更快,我不知道它们是否使用 -O0
进行编译, -O1
, -O2
, -O3
或通过可执行链接将它们混合。
理论上,人们可以选择性地将整个 C++ 应用程序划分为可执行片段,选择要使用 -O2
编译哪些片段。哪些将使用 -O3
进行编译。然后将所有内容链接到理想的二进制可执行文件中。但实际上,这有多可行?
热点选择的方法要简单得多。它说:
听着,我将把每个方法视为一个独立的执行单元,而不是任何地方的任何代码块。如果该方法足够热(即经常调用)并且足够小,我将尝试积极优化它。
这当然有一个缺点,需要代码预热,但它要简单得多,并且在大多数情况下可以为实际/大型/复杂的应用程序产生最佳结果。
最后但并非最不重要的一点是,如果您想使用 -O3
编译整个应用程序,您可能应该考虑这个问题。 : When can I confidently compile program with -O3?
关于java - 当比较 Java 和 C++ 的速度时,我应该使用 -O3 还是 -O2 编译 C++ 代码?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31227983/