amazon-web-services - 将数据从 Hive 写入 Amazon S3,同时保持表分区目录结构

标签 amazon-web-services hadoop amazon-s3 hive amazon-athena

假设我在 Hive 中有一个名为 T1 的表。它按日期字段 dt 列进行分区。在配置单元 Metastore 中,目录结构有一个名为 T1 表的文件夹,其中有子目录 - 每个日期一个文件夹。

我的目标是将表的数据复制到 Amazon S3 中,同时保持目录结构。如果我尝试将表内容直接写入 S3 文件,如下所示,输出将写入单个文件并且目录结构丢失:

INSERT OVERWRITE DIRECTORY "s3://<DESTINATION>" SELECT * FROM T1;

或者,如果我尝试使用命令将目录从 HIVE-metatore 直接复制到 s3,则整个目录将复制到 S3,但底层文件不再以逗号分隔...这是一些不可读的字符相反:

s3-dist-cp --src=hdfs://<directory location> --dest=s3://<destination>

谁能帮我完成这个?有什么建议或替代方案吗?

最佳答案

可能的解决方案是使用相同的架构创建表并将位置设置为所需位置,然后使用 Hive 和动态分区加载数据:

create table T2 like T1;

Alter table T2 set location = 'your destination location';

set hive.exec.dynamic.partition=true; 
set hive.exec.dynamic.partition.mode=nonstrict;

Insert overwrite table T2 partition (dt)
select * from T1
distribute by dt;

关于amazon-web-services - 将数据从 Hive 写入 Amazon S3,同时保持表分区目录结构,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54913733/

相关文章:

hadoop - 带有Spark 1.3.1的Apache phoenix 4.5.1 ClassNotFoundException

hadoop - 加载大型数据集的有效方法

python - aws s3下载文件

amazon-s3 - 使用 s3export 将数据从 Vertica 导出到 S3 时遇到问题

javascript - 连接到 AWS-SDK 时 Node.js 303 永久重定向

node.js - 使用 Node JS 登录 AWS cognito

amazon-web-services - 使用面向 Internet 的 ELB 时,负载均衡器后面的所有实例是否都必须拥有自己的公共(public) IP?

amazon-web-services - AWS将elb的8000端口转发到EC2的8000端口

amazon-web-services - 通过云形成控制SNS策略

hadoop - ItemSimilarityJob用户文件(或项目文件)