bash - 在安装hadoop时,当我运行start-dfs.sh命令时,它显示 'no such file or directory found'

标签 bash hadoop

[root@nn1 hadoop-2.9.0]# ./sbin/start-dfs.sh
Starting namenodes on [nn1]
nn1: namenode running as process 2707. Stop it first.
nn1: datanode running as process 2859. Stop it first.
dn1: bash: line 0: cd: /home/user1/hadoop-2.9.0: No such file or directory
dn1: bash: /home/user1/hadoop-2.9.0/sbin/hadoop-daemon.sh: No such file or directory
dn2: bash: line 0: cd: /home/user1/hadoop-2.9.0: No such file or directory
dn2: bash: /home/user1/hadoop-2.9.0/sbin/hadoop-daemon.sh: No such file or directory
Starting secondary namenodes [0.0.0.0]
0.0.0.0: secondarynamenode running as process 3052. Stop it first.
[root@nn1 hadoop-2.9.0]# 

以供引用:
主:
主机名= nn1
用户名= user1

从站1:
主机名= dn1
用户名= slave1

slave2:
主机名= dn2
用户名= slave2

最佳答案

您以root用户(而不是user1)的身份运行命令来查找文件。

而且您确实不应该以root用户身份运行Hadoop的任何组件

它还表示您的进程正在运行,因此尚不清楚为什么要尝试再次启动它们

关于bash - 在安装hadoop时,当我运行start-dfs.sh命令时,它显示 'no such file or directory found',我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48785078/

相关文章:

sql - 失败:执行错误,在访问Hive View 时从org.apache.hadoop.hive.ql.exec.mr.MapRedTask异常返回代码2

java - nameNode无法启动-hadoop-1.0.3 Ubuntu 13.10单节点集群

hadoop - Hadoop:多个 map task 如何确保它们不争夺资源?

hadoop - 从IntersystemsCaché导入Sqoop

regex - 从 Unix 中的完整路径获取文件名

linux - 使用带有 sed 的 bash 脚本修改文件

linux - 如何根据其他文件中的 ID 选择文件的子集?

bash - 使用另一个列表中的名称重命名文件列表

bash - 删除除 4 个最新目录之外的所有目录

api - 获取opentsdb中所有标签的指标的最新/最新值