hadoop - 无法配置Hadoop

标签 hadoop java-home

我无法为单独操作配置hadoop。
当我执行cp conf / *。xml输入时,出现以下错误:
cp:无法创建常规文件input/capacity-scheduler.xml': Permission denied cp: cannot create regular file input / core-site.xml':权限被拒绝
cp:无法创建常规文件input/fair-scheduler.xml': Permission denied cp: cannot create regular file input / hadoop-policy.xml':权限被拒绝
cp:无法创建常规文件input/hdfs-site.xml': Permission denied cp: cannot create regular file input / mapred-queue-acls.xml':权限被拒绝
cp:无法创建常规文件“input / mapred-site.xml”:权限被拒绝

之后,当我执行bin / hadoop jar hadoop-examples-*。jar grep输入输出'dfs [a-z。] +'时,出现以下错误:

/cygdrive/d/hadoop-1.2.1/libexec/../conf/hadoop-env.sh:第55行:$'\ r':找不到命令
错误:未设置JAVA_HOME。
我已经编辑了env.sh文件并设置了JAVA_HOME。

有人可以建议我吗?

最佳答案

尝试以root用户(管理员)的身份运行这些复制命令。这可能是一个权限问题,您的用户帐户没有权限在该目录中写东西。

您可以使用sudo在许多Linux发行版中执行此操作

例如:
sudo cp conf/*.xml input

关于hadoop - 无法配置Hadoop,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19055808/

相关文章:

python - 如何在Pyspark中生成带有数量的关联规则?

hadoop - BigTable docker 镜像启动问题 : util. NativeCodeLoader: Unable to load native-hadoop library for your platform

java - 错误 : JAVA_HOME is set to an invalid directory

java - 我需要在用户变量或系统变量中设置 java JDK 路径吗?

ant - 为什么 ANT 告诉我 JAVA_HOME 是错误的,而事实并非如此?

bash - HDFS 上的 Snappy 压缩文件没有扩展名且不可读

optimization - Hadoop计数器-调整和优化

hadoop - 为 spark 输出文件设置 S3 输出文件受赠者

JAVA_HOME 返回空白 Linux Mint 18.3

JAVA_HOME 和 PATH 中的 java 版本不匹配