我正在尝试使用 Murmur3 算法生成哈希。散列是一致的,但它们是 Scala 和 Guava 返回的不同值。
class package$Test extends FunSuite {
test("Generate hashes") {
println(s"Seed = ${MurmurHash3.stringSeed}")
val vs = Set("abc", "test", "bucket", 111.toString)
vs.foreach { x =>
println(s"[SCALA] Hash for $x = ${MurmurHash3.stringHash(x).abs % 1000}")
println(s"[GUAVA] Hash for $x = ${Hashing.murmur3_32().hashString(x).asInt().abs % 1000}")
println(s"[GUAVA with seed] Hash for $x = ${Hashing.murmur3_32(MurmurHash3.stringSeed).hashString(x).asInt().abs % 1000}")
println()
}
}
}
Seed = -137723950
[SCALA] Hash for abc = 174
[GUAVA] Hash for abc = 419
[GUAVA with seed] Hash for abc = 195
[SCALA] Hash for test = 588
[GUAVA] Hash for test = 292
[GUAVA with seed] Hash for test = 714
[SCALA] Hash for bucket = 413
[GUAVA] Hash for bucket = 22
[GUAVA with seed] Hash for bucket = 414
[SCALA] Hash for 111 = 250
[GUAVA] Hash for 111 = 317
[GUAVA with seed] Hash for 111 = 958
为什么我得到不同的哈希值?
最佳答案
在我看来它像 Scala 的 hashString
转换成对的 UTF-16 char
转至 int
与 Guava 的不同 hashUnencodedChars
( hashString
没有 Charset
被重命名为那个)。
斯卡拉:
val data = (str.charAt(i) << 16) + str.charAt(i + 1)
Guava :
int k1 = input.charAt(i - 1) | (input.charAt(i) << 16);
在 Guava 中,
char
在指数i
成为 int
的 16 个最低有效位和 char
在 i + 1
成为最高有效的 16 位。在 Scala 实现中,情况正好相反:char
在 i
是最重要的,而 char
在 i + 1
是最不重要的。 (我想,Scala 实现使用 +
而不是 |
的事实也很重要。)请注意,Guava 实现等效于使用
ByteBuffer.putChar(c)
两次将两个字符放入小端ByteBuffer
,然后使用 ByteBuffer.getInt()
返回一个 int 值。 Guava 实现也等效于使用 UTF-16LE
将字符编码为字节。并散列这些字节。 Scala 实现并不等同于以 JVM 需要支持的任何标准字符集对字符串进行编码。总的来说,我不确定 Scala 有什么先例(如果有的话)按照它的方式来做。编辑:
Scala 实现还做了另一件与 Guava 实现不同的事情:它将被散列的字符数传递给
finalizeHash
。 Guava 的实现将字节数传递给等效的方法 fmix
方法。
关于scala - 来自 Scala 和 Guava 的 Murmur3 的不同结果,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30196298/