hadoop - Hortonworks练习考试-将文件从本地计算机复制到hdfs错误

标签 hadoop sudo hortonworks-data-platform

我目前正在参加Hortonworks练习考试,但遇到无法解决的错误。

在第一步中,提示询问Put the three files from the home/horton/datasets/flight delays directory on the local machine into the user/horton/flight delays directory in hdfs permission denied error。在将HDFS安装在(root @ namenode)的节点上时。我运行简单的命令:

hadoop fs -copyFromLocal /home/horton/datasets/flightdelays/flight_delays1.csv /user/horton/flightdelays

这将返回错误/home/horton/datasets/flightdelays/flight_delays1.csv no such file or directory
当我在本地计算机上的命令行中从上面运行相同的命令时,而不是在ssh到namenode(horton @ some-ip)之后运行该命令时,出现权限被拒绝错误:
permission denied user=horton access=WRITE inode='/user/horton/flightdelays":hdfs:hdfs:drwxr-xr-x
如果有人以前曾做过这种练习考试,或者知道这个错误是什么并且可以提供任何帮助,将不胜感激。在线研究时,很多人都遇到了同样的问题,但权限被拒绝,但是我将假设他们设置的实践考试不需要为每个运行的命令使用sudo。

再次,任何帮助将是非常感谢!

最佳答案

在CLI上尝试
sudo -u hdfs hdfs -copyFromLocal /input/file/path /hdfs/path/

关于hadoop - Hortonworks练习考试-将文件从本地计算机复制到hdfs错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38296117/

相关文章:

java - 使用Multiversion Java运行Hadoop

linux - 如何以系统管理员 (root) 身份运行命令

linux - 使用 sudo 命令时是否应该首先获取文件?

hadoop - Datanode HBase和NameNode没有启动hortonworks

java - 我可以在Hadoop上运行仅具有映射器类的Java源代码(没有Reducer类的源代码)吗?

mysql - 我应该使用哪种技术来处理每 30 秒 100 万 * 100 万次计算

php - 我应该考虑将 Hadoop 用于新的 PHP 应用程序吗?

bash - 在没有sudo的情况下在shell脚本中执行单个命令

postgresql - postgresql 升级后 Ambari 不启动

apache - Tez 在 HDP 2.1 上崩溃