在没有 Hive 或 Impala 库支持的情况下,使用 Java 在 HDFS 中创建和填充 Parquet 文件的最佳方法是什么?
我的目标是将一个简单的 csv 记录(字符串)写入位于 HDFS 中的 Parquet 文件。
之前提出的所有问题/答案都令人困惑。
最佳答案
好像parquet-mr是要走的路。他们提供 Thrift 和 Avro 的实现。自己的实现应该基于ParquetOutputFormat可能看起来类似于 AvroParquetOutputFormat和 AvroWriteSupport进行实际转换。
关于java - 如何使用 Java 在 HDFS 中创建和填充 Parquet 文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42886196/