我们需要序列化一些数据以放入 solr 和 hadoop。
我正在评估相同的序列化工具。
我列表中的前两个是 Gson 和 Avro。
据我了解,Avro = Gson + Schema-In-JSON
如果这是正确的,我不明白为什么 Avro 在 Solr/Hadoop 中如此受欢迎?
我在互联网上搜索了很多,但找不到一个正确的答案。
到处都说,Avro 很好,因为它存储模式。我的问题是如何处理该架构?
这可能适用于 Hadoop 中非常大的对象,其中单个对象存储在多个文件 block 中,这样存储每个部分的模式有助于更好地分析它。 但即使在这种情况下,模式也可以单独存储,仅对它的引用就足以描述模式。我看不出为什么架构应该是每个部分的一部分。
如果有人能给我一些很好的用例,Avro 如何帮助他们,而 Gson/Jackson 不足以达到目的,那将非常有帮助。
另外,Avro 网站上的官方文档说我们需要给 Avro 一个模式来帮助它生成 Schema+Data。 我的问题是,如果输入模式并且将模式与数据的 JSON 表示一起发送到输出,那么 Avro 还能实现什么额外功能?我不能自己通过使用 JSON 序列化对象、添加我的输入模式并将其称为 Avro 来做到这一点吗?
我真的很困惑!
最佳答案
- 不断发展的架构
假设您最初为 Employee 类设计了这样的架构
{
{"name": "emp_name", "type":"string"},
{"name":"dob", "type":"string"},
{"name":"age", "type":"int"}
}
后来您意识到年龄是多余的,并将其从架构中删除。
{
{"name": "emp_name", "type":"string"},
{"name":"dob", "type":"string"}
}
在此架构更改之前已序列化和存储的记录会怎样。你将如何读回这些记录?
这就是为什么 avro 读取器/反序列化器需要读取器和写入器模式的原因。它在内部进行架构解析,即。它试图使旧模式适应新模式。
转到此链接 - http://avro.apache.org/docs/1.7.2/api/java/org/apache/avro/io/parsing/doc-files/parsing.html - “使用 Action 符号解决”部分
在这种情况下,它会跳过 Action ,即忽略“年龄”。它还可以处理字段从 int 变为 long 等情况。
这是一篇很好的文章,解释了模式演变 - http://martin.kleppmann.com/2012/12/05/schema-evolution-in-avro-protocol-buffers-thrift.html
对于单个文件中的多条记录,架构只存储一次。
大小,以极少字节编码。
关于java - 在 avro 中存储模式有什么好处?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20556324/