我的 unix 目录中有几个文件,我必须将它们移动到 Hadoop。我知道 copyFromLocal 命令:
Usage: hadoop fs -copyFromLocal URI but that allows me to move one by one.
有没有办法通过一个命令将所有这些文件移动到 HDFS?
我想知道是否有办法一次传输多个文件
最佳答案
put 命令将起作用
如果你想将整个目录从本地复制到hdfs
hadoop fs -put /path1/file1 /pathx/target/
如果你想一次性将目录下的所有文件复制到hdfs
hadoop fs -put /path1/file1/* /pathx/target/
关于unix - 将多个文件从本地 unix 移动到 HDFS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58329022/