hadoop - 以 parquet 格式文件输出配置单元结果

标签 hadoop hive parquet

能否将 Hive 查询结果导出为 parquet 文件格式?我可以像这样将结果导出为 tsv:

INSERT OVERWRITE DIRECTORY '/home/user/events'
row format delimited 
fields terminated by '\t'

但我如何告诉它以 Parquet 格式进行呢?

最佳答案

插入覆盖目录“EXTERNAL_DIRECTORY”存储为 PARQUET 从 SOURCE_TABLE_NAME 选择 *;

关于hadoop - 以 parquet 格式文件输出配置单元结果,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33785987/

相关文章:

java - Spark SQL 看不到 hdfs 文件

hadoop - 在 Hadoop 中使用分布式缓存时出现异常

python - 错误: No module named 'ttypes'

apache-spark - 为什么 Spark 不根据读取时的 Parquet block 大小创建分区? (相反,它似乎按 Parquet 文件压缩大小进行分区)

apache-spark - 如何查看 Spark 版本

java - Hbase 分页过滤器返回更多键

java - 尝试在 Apache Kylin 中为示例数据构建多维数据集时出现 java.io.FileNotFoundException : File does not exist: hive-exec-2. 1.0.jar 错误

hadoop - 在 hive 中创建表格时位置的用途是什么

amazon-web-services - AWS Glue Crawler 为每个分区添加表?

python - 使用 Pyarrow 将 .parquet 文件转换为 CSV