file - 加载文件到远程hadoop分布式文件系统

标签 file batch-file hadoop hdfs

我有一组文件驻留在本地机器(机器 A)中,我想将这些文件加载​​到远程机器的 HDFS(机器 B)中。两台机器的IP地址不同。 Hadoop仅安装在机器B上。我如何为此编写批处理脚本。这样在我的本地机器上运行批处理脚本就会将本地机器上的文件加载到远程 HDFS 机器上。

最佳答案

你也应该在你的本地机器上安装 hadoop。但是你不需要本地机器成为你的 hadoop 集群的一部分。你只需将本地机器作为 B 的客户端。然后你可以运行 cmd hadoop fs -put SOME_LOCAL_FILE/HDFS_TARGET_PATH 将您的文件放在本地机器上到 hadoop 集群 B

关于file - 加载文件到远程hadoop分布式文件系统,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29159472/

相关文章:

file - Rust:如何逐 block 读取文件

c++ - 打开 QFile 进行追加

大小为 0 但有数据的 Linux 文件

hadoop - Hbase 2.2.5 Shell扫描表发出问题

hadoop - 如何对 hive 中的每个组进行采样?

hadoop - 使用LoadIncrementalHFiles和子目录进行批量加载

file - 文本文件浏览器

MySql 静默安装/qn 不工作

mysql - 带有 MySQL 的可移植 SpringMVC 应用程序

batch-file - 根据文件内容重命名文件批处理文件