sql - 无法使用INSERT OVERWRITE DIRECTORY从HIVE表插入HDFS

标签 sql join hadoop hive hiveql

我的主要需求是使用INSERT OVERWRITE uery从HIVE加载HDFS中的文件。在此查询中,我尝试连接3个配置单元表。下面是查询:

select * FROM 
    AGG_CUSTOMER_EXPSR_DRV_HIVE DRV 
LEFT OUTER JOIN 
    AGG_CUSTOMER_EXPSR_SRC_HIVE SRC 
ON 
    (SRC.CUSTOMER_ID = DRV.CUSTOMER_ID) 
    AND (SRC.AGGREGATION_LEVEL_CD = DRV.AGGREGATION_LEVEL_CD) 
    AND (SRC.PRODUCT_GROUP_CD = DRV.PRODUCT_GROUP_CD) AND (SRC.SRC_SYS_CD = DRV.SRC_SYS_CD) 
LEFT OUTER JOIN 
    ALTERNATE_IP_HIVE AIP1 
ON 
    (DRV.DERIVED_CUSTOMER_ID = AIP1.IP_ID) AND (AIP1.IP_TYPE_CD IN (1, 4)) 
LEFT OUTER JOIN 
    ALTERNATE_IP_HIVE AIP3 
ON 
    (SRC.FINANCIAL_RPTNG_UNIT_ID = AIP3.IP_ID) AND (AIP3.IP_TYPE_CD = 3) 
WHERE EXCLUDE_IND ='N';

但是我收到如下错误:-sh: syntax error near unexpected token(`

有人可以帮我找出问题吗?

注意:我已经删除了SELECT子句中的字段。

最佳答案

如果您使用上面的sql中的结果字段数在 hive 中创建了一个表,则只需

INSERT OVERWRITE TABLE <database_name.your_created_table_name> SELECT * FROM 
    AGG_CUSTOMER_EXPSR_DRV_HIVE DRV 
LEFT OUTER JOIN 
    AGG_CUSTOMER_EXPSR_SRC_HIVE SRC 
ON 
    (SRC.CUSTOMER_ID = DRV.CUSTOMER_ID) 
    AND (SRC.AGGREGATION_LEVEL_CD = DRV.AGGREGATION_LEVEL_CD) 
    AND (SRC.PRODUCT_GROUP_CD = DRV.PRODUCT_GROUP_CD) AND (SRC.SRC_SYS_CD = DRV.SRC_SYS_CD) 
LEFT OUTER JOIN 
    ALTERNATE_IP_HIVE AIP1 
ON 
    (DRV.DERIVED_CUSTOMER_ID = AIP1.IP_ID) AND (AIP1.IP_TYPE_CD IN (1, 4)) 
LEFT OUTER JOIN 
    ALTERNATE_IP_HIVE AIP3 
ON 
    (SRC.FINANCIAL_RPTNG_UNIT_ID = AIP3.IP_ID) AND (AIP3.IP_TYPE_CD = 3) 
WHERE EXCLUDE_IND ='N';

从SELECT它是您的查询。您可以检查this URL以获取有关hiveql的更多帮助

关于sql - 无法使用INSERT OVERWRITE DIRECTORY从HIVE表插入HDFS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24750151/

相关文章:

sql - 从派生表中选择sql异常

sql - 使用 perl 和 DBI 将一个非常大的表从一个 DB2 复制到另一个

r - 递归地从多个列表中绑定(bind)项目

azure - Azure 上的 Hadoop,我可以使用不同的 Blob 存储容器进行 I/O 吗?

hadoop - Hadoop MapReduce映射器任务从HDFS或S3读取输入文件所花费的时间

PHP + MySQL : Big CSV file import

MySQL 三个表的复杂连接

postgresql - 如何将垂直表和水平表连接在一起

php - "joining"MySQL中的多个表并按日期格式对它们进行排序 : 1319744408

python - 使用 Scala 或 Python 列出存储在 Hadoop HDFS 上的 Spark 集群中可用的所有文件?