hadoop - 插入具有特定分区的 Hive 表

标签 hadoop hive

请原谅我这个愚蠢的问题,我用谷歌搜索并搜索堆栈溢出 它应该可以工作

尝试将数据加载到 Hive 分区表时出现错误

CREATE EXTERNAL TABLE baba2 ( name string, age INT) PARTITIONED BY ( YEAR int) 
ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' 
LINES TERMINATED BY '\n' 
STORED AS TEXTFILE 
LOCATION '/user/hive/baba2/'

创建这个简单的文件

[cloudera@localhost ~]$ head babafile.txt
aaaaa,10
"bbbb",30

创建分区

 ALTER TABLE BABA2 ADD PARTITION (YEAR=2015) LOCATION '/user/hive/baba2/2015';

运行此命令后:

LOAD DATA LOCAL INPATH '/home/cloudera/babafile.txt'
INTO TABLE BABA2 PARITION(YEAR=2015);

我收到此错误:

**parseexception line 2:17 missing eof at 'paritioned' near 'baba2'**

最佳答案

在您的加载查询中,“分区”的拼写不匹配,否则没问题。我用正确的代码运行了相同的代码,它给出了输出。

LOAD DATA LOCAL INPATH './babafile.txt' INTO TABLE BABA2 PARTITION(YEAR=2015);

关于hadoop - 插入具有特定分区的 Hive 表,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33000485/

相关文章:

hadoop - hadoop fs -put 和 hadoop fs -copyFromLocal 的区别

java - 建议使用示例配置单元查询,并提供示例以使用配置单元0.14创建,更新和删除表

hadoop - 验证在dB2.table2中将dB1.table1数据元素正确地从UTC转换为EST

java - 在Hadoop提取期间Druid空间维度加载数据错误

hadoop - 何时使用 Hadoop、HBase、Hive 和 Pig?

scala - 将多个变量从 scala/spark-shell 提供给 hive 表

hadoop - 在 Hive 中使用排序表

hadoop - Hadoop 2:为什么每个映射或归约任务都有两个Linux进程?

hadoop - hive UDF-将StringObjectInspector转换为String

hive - pyhs2/hive 没有文件匹配路径文件和文件存在