hadoop - 如何将 Word 和 PDF 文档移动到 Hadoop HDFS?

标签 hadoop mapreduce hdfs

我想从本地系统(不在 Hadoop 集群中的系统)复制/上传一些文件到 Hadoop HDFS。本地系统也可以是Windows系统。

我尝试使用 Flume 假脱机目录。它适用于文本文件。对于其他文档,MIME 类型已损坏。

请告诉我将文件加载到 HDFS 的不同方法。

最佳答案

 hadoop fs -copyFromLocal <localsrc> URI

检查 Hadoop 文档:copyFromLocal

请记住,Apache Flume 并不是为了复制一些 文件而创建的。

关于hadoop - 如何将 Word 和 PDF 文档移动到 Hadoop HDFS?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23105517/

相关文章:

hadoop - 使用 Behemoth 在 Hadoop 上运行 UIMA 作业

shell - Ambari自举式HDP 2.2群集中的正确SSH ENV

java - 使用单独的映射器、 reducer 和驱动程序类运行 MR 程序

java - 从简单的 java 程序调用 mapreduce 作业

hadoop - 使用来自 grunt 的 exec 命令运行脚本

hadoop - sqoop hadoop-mapreduce 不存在

sorting - MapReduce 框架如何实现排序阶段?

hadoop - 如何*真正*从 hdfs 回收磁盘空间

java - Apache Spark 从 HDFS 以流的形式读取文件

java - 如何在Spark 1.3.1中使用Java读取AVRO数据?