我已经在hdfs中为一个项目创建了导演,其名称为cert_project
尝试将名为Load Data.csv的csv文件从本地复制到hdfs。
$ hadoop fs -CopyFromLocal c:\Load Data.csv /home/edureka/aprl_25th_morng/cert_project/Load Data.csv
我出错了。我在终端和grunt>(grunt shell)上都尝试过
需要帮忙。
最佳答案
由于文件名中有空格,所以它是self。尝试重命名文件,但文件名中没有空格,或尝试以下操作之一:
hadoop fs -CopyFromLocal 'c:\Load%20Data.csv' '/home/edureka/aprl_25th_morng/cert_project/Load Data.csv'
要么
hadoop fs -CopyFromLocal 'c:\Load%20Data.csv' '/home/edureka/aprl_25th_morng/cert_project/'`
在UNIX文件系统中,空间用%20表示(在hdfs中不是)。因此,如果需要从hdfs删除/复制文件,则需要引用且不带%20
hadoop fs -rm '/home/edureka/aprl_25th_morng/cert_project/Load Data.csv'
关于shell - pig 咕shell shell 中的copyFromLocal错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37377244/