我正在对一些代码进行基准测试,但我无法让它像 java.math.BigInteger
那样快速运行,即使使用完全相同的算法。
所以我复制了java.math.BigInteger
源到我自己的包中并尝试了这个:
//import java.math.BigInteger;
public class MultiplyTest {
public static void main(String[] args) {
Random r = new Random(1);
long tm = 0, count = 0,result=0;
for (int i = 0; i < 400000; i++) {
int s1 = 400, s2 = 400;
BigInteger a = new BigInteger(s1 * 8, r), b = new BigInteger(s2 * 8, r);
long tm1 = System.nanoTime();
BigInteger c = a.multiply(b);
if (i > 100000) {
tm += System.nanoTime() - tm1;
count++;
}
result+=c.bitLength();
}
System.out.println((tm / count) + "nsec/mul");
System.out.println(result);
}
}
当我运行它(MacOS 上的 jdk 1.8.0_144-b01)时,它会输出:
12089nsec/mul
2559044166
当我在未注释导入行的情况下运行它时:
4098nsec/mul
2559044166
使用 JDK 版本的 BigInteger 几乎是我的版本的三倍,即使它使用完全相同的代码。
我已经用 javap 检查了字节码,并比较了使用选项运行时的编译器输出:
-Xbatch -XX:-TieredCompilation -XX:+PrintCompilation -XX:+UnlockDiagnosticVMOptions
-XX:+PrintInlining -XX:CICompilerCount=1
两个版本似乎生成相同的代码。 那么热点是否使用了一些我无法在我的代码中使用的预计算优化?我一直都明白他们没有。 是什么解释了这种差异?
最佳答案
是的,HotSpot JVM 有点“作弊”,因为它有一些您在 Java 代码中找不到的特殊版本的 BigInteger
方法。这些方法称为 JVM intrinsics .
特别是,BigInteger.multiplyToLen
是 HotSpot 中的一个内在方法。有一个特殊的hand-coded assembly implementation在 JVM 源代码库中,但仅适用于 x86-64 架构。
您可以使用 -XX:-UseMultiplyToLenIntrinsic
选项禁用此内在函数,以强制 JVM 使用纯 Java 实现。在这种情况下,性能将与您复制的代码的性能相似。
P.S. 这是一个 list其他 HotSpot 内在方法。
关于java - Java JIT 在运行 JDK 代码时会作弊吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45912510/