hadoop - 从未安装 Hadoop(HDFS) 的节点将数据导出到 Hive

标签 hadoop export hdfs

是否可以将尚未安装 hadoop(HDFS) 或 Sqoop 的节点的数据导出到 Hive 服务器?
我会从可能是 Mysql 或某个目录中的文件的源中读取数据,然后使用 Hadoop 核心类或类似 Sqoop 的东西将数据导出到我的 Hadoop 集群中。
我正在用 Java 编程。

最佳答案

由于您是最终目的地是 hive 表。我建议如下:

  • 创建一个 Hive 决赛 table 。
  • 使用以下命令从其他节点加载数据
    LOAD DATA LOCAL INPATH '<full local path>/kv1.txt' OVERWRITE INTO TABLE table_name;
    

  • 引用 this

    使用 Java,您可以使用 JSCH lib 来调用这些 shell 命令左右。

    希望这可以帮助。

    关于hadoop - 从未安装 Hadoop(HDFS) 的节点将数据导出到 Hive,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26137177/

    相关文章:

    r - 如何从 R 连接到 HDFS 并使用 arrow 读/写 Parquet ?

    hadoop - Hadoop webHDFS 400 IllegalArgumentException

    java - Mahout - 尝试维基百科示例时出错

    google-apps-script - 如何通过 Google Apps 脚本下载/导出电子表格中的工作表

    mysql - 如何将大数据库导入到本地数据库

    Oracle expdp 无数据

    java - Hbase ResultScanner.next() 第一次响应需要很长时间

    java - Hadoop MapReduce 查询大型 json 数据

    java - Hadoop FileSystem 应该关闭吗?

    hadoop - 文件是否需要位于 HDFS 中才能在分布式缓存中使用?