Testowałem trochę kodu i nie mogłem go uruchomić tak szybko, jak z java.math.BigInteger
, nawet przy użyciu tego samego algorytmu. Skopiowałem więc java.math.BigInteger
źródło do własnego pakietu i wypróbowałem:
//import java.math.BigInteger;
public class MultiplyTest {
public static void main(String[] args) {
Random r = new Random(1);
long tm = 0, count = 0,result=0;
for (int i = 0; i < 400000; i++) {
int s1 = 400, s2 = 400;
BigInteger a = new BigInteger(s1 * 8, r), b = new BigInteger(s2 * 8, r);
long tm1 = System.nanoTime();
BigInteger c = a.multiply(b);
if (i > 100000) {
tm += System.nanoTime() - tm1;
count++;
}
result+=c.bitLength();
}
System.out.println((tm / count) + "nsec/mul");
System.out.println(result);
}
}
Kiedy uruchomię to (jdk 1.8.0_144-b01 na MacOS), wyświetla:
12089nsec/mul
2559044166
Kiedy uruchamiam go z niepomocowaną linią importu:
4098nsec/mul
2559044166
Jest prawie trzy razy szybszy, gdy używasz wersji BigInteger JDK w porównaniu z moją wersją, nawet jeśli używa dokładnie tego samego kodu.
Sprawdziłem kod bajtowy za pomocą javap i porównałem dane wyjściowe kompilatora podczas pracy z opcjami:
-Xbatch -XX:-TieredCompilation -XX:+PrintCompilation -XX:+UnlockDiagnosticVMOptions
-XX:+PrintInlining -XX:CICompilerCount=1
i obie wersje wydają się generować ten sam kod. Czy punkt aktywny korzysta z niektórych wstępnie obliczonych optymalizacji, których nie mogę użyć w kodzie? Zawsze rozumiałem, że nie. Co wyjaśnia tę różnicę?