我有一组文件驻留在本地机器(机器 A)中,我想将这些文件加载到远程机器的 HDFS(机器 B)中。两台机器的IP地址不同。 Hadoop仅安装在机器B上。我如何为此编写批处理脚本。这样在我的本地机器上运行批处理脚本就会将本地机器上的文件加载到远程 HDFS 机器上。
最佳答案
你也应该在你的本地机器上安装 hadoop。但是你不需要本地机器成为你的 hadoop 集群的一部分。你只需将本地机器作为 B 的客户端。然后你可以运行 cmd hadoop fs -put SOME_LOCAL_FILE/HDFS_TARGET_PATH
将您的文件放在本地机器上到 hadoop 集群 B
关于file - 加载文件到远程hadoop分布式文件系统,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29159472/