hadoop - 如何将文件从 Windows 传输到 HortonWorks 沙箱?

标签 hadoop hdfs bigdata vmware hortonworks-data-platform

我尝试使用 -copyFromLocal 命令将输入​​文件复制到 HDFS,但它抛出无法定位文件的错误。

hadoop fs -mkdir MapReduceInput

hadoop fs -copyFromLocal d:/demodata.txt MapReduceInput/

错误:

此外,需要提供位于本地系统中的 jar 路径以运行 MapReduce 作业。 如何将输入文件、jar 复制到沙箱本地系统?我正在使用 vmware 和 windows 操作系统。

最佳答案

使用 Winscp 将文件从 Windows 复制到任何基于 Unix 的服务器,例如 Hortonwork Sandbox。

关于hadoop - 如何将文件从 Windows 传输到 HortonWorks 沙箱?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25588414/

相关文章:

linux - 如何使用单个命令在 hadoop 中创建多个目录?

java - 映射代码以过滤掉日志文件中每一行的某些字段

hadoop - 删除托管(非外部)表时,不会删除 hdfs 上的配置单元文件

java - 尝试使用 java 连接远程服务器中的 HBase 时出现连接问题

mysql - sqoop 异常,com.mysql.jdbc.exceptions.jdbc4.CommunicationsException

导入两个较小文件时 Mysqlimport 非常慢

java - 错误 Livy Spark Server hue 3.9

hadoop - Flume 将 txt 文件转换为二进制文件

hadoop - 如何有效地读取带有 spark 路径的文件,即想要返回 `wholeTextFiles` 的 `RDD[String, Iterator[String]]`

elasticsearch - 弹性查询过滤器挑战