hadoop - 如何将外部创建的 ORC 文件加载到存储为 ORC 的 HIVE 表中?

标签 hadoop hive hdfs hiveql orc

我创建了一个托管配置单元表,该表存储为 ORC,并且在加载 .txt 文件时工作正常,但无法将 ORC 文件加载到该表中。与分隔符有什么关系吗?或者我错过了什么?

最佳答案

下面的代码对我有用,同时将 HDFS 中存在的 ORC 文件加载到配置单元表中。

  1. 在 hive 中创建一个表。

     create table MyDB.TEST (
     Col1 String,
     Col2 String,
     Col3 String,
     Col4 String)
     STORED AS INPUTFORMAT
           'org.apache.hadoop.hive.ql.io.orc.OrcInputFormat'
     OUTPUTFORMAT
      'org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat';
    
  2. 将数据加载到表中。

     LOAD DATA INPATH '/hdfs/dir/folder/to/orc/files/' INTO TABLE MyDB.TEST;
    

关于hadoop - 如何将外部创建的 ORC 文件加载到存储为 ORC 的 HIVE 表中?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36621536/

相关文章:

hadoop wordcount并将文件上传到hdfs

apache-spark - 如何控制Spark作业提交的Hadoop IPC重试次数?

java - 配置单元 jdbc 连接超时

hadoop - 跳过 hive 中的连字符

hadoop - 找不到类 'org.apache.hadoop.hive.kafka.KafkaStorageHandler'

hadoop - Hadoop返回的文件大小是否包括复制因子?

bash - 将我的容器入门文件翻译为docker-compose.yml

java - 如何使用配置文件中的输入参数执行 Map Reduce 作业

java - Apache Hadoop API 以原子方式创建唯一目录

hadoop - 防止加缪增加偏移值