hadoop - 从 HDFS 加载数据到 hive

标签 hadoop hdfs

<分区>

谁能解释如何在不删除源文件的情况下将数据从 HDFS 加载到 Hive 外部表。如果我使用

LOAD DATA INPATH '/user/root/cards/deckofcards.txt' INTO TABLE deck_of_cards;

文件用户 /user/root/cards 会被删除吗?

最佳答案

为了将数据加载到 Hive 表中,我们可以使用

  1. 当文件已存在于 HDFS 中时使用外部表,即使表被删除,文件也应保留。

例子:-

create external table table_name (
   id int,   
   field_name string 
) 
row format delimited 
fields terminated by <any delimiter>
location '/hdfs_location';
  1. 当 Hive 应管理表的生命周期或生成临时表时使用托管表。

例子:-

create table table_name (   
    id int,   
    field_name string 
)  
row format delimited 
fields terminated by <any delimiter>
location '/hdfs_location';

找出什么样的表 :- describe formatted table_name

关于hadoop - 从 HDFS 加载数据到 hive,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42742121/

相关文章:

docker - 如何修复简单的HDFS HA群集中的 “HA is not enabled”错误

python - Spark 读取文件不包含模式

python - pig udf中python代码的正确输入/输出?

python - pig 脚本 : STORE command not working

linux - 如何在 HDFS 中存储 shell 脚本的日志文件

hadoop - 尝试从Hadoop URL读取数据,但无法读取错误信息

hadoop - 需要帮助在大学实验室设置 hadoop 集群

hadoop - 快速HDFS和Hive数据复制

java - 如何从 Mapreduce 作业查询存储在 hdfs 中的嵌入式数据库?

hadoop - hive 计数(*)无限期运行,并且数据预先填充了值