hadoop - 运行命令 stop-all.sh 时没有 JobTracker 和 NameNode 停止

标签 hadoop

在我的案例中,jobtracker 和 namenode 已启动,但无法通过运行 stop-all.sh 命令停止它

当我键入 jps 时得到以下消息:

[root@iq hadoop]# jps

25258 JobTracker

8082 SecondaryNameNode

7944 DataNode

8404 Jps

8321 TaskTracker

24237 NameNode

但是当我尝试通过在命令行上运行 stop-all.sh 来停止它时,收到以下消息:

[root@iq bin]# bash stop-all.sh 

no jobtracker to stop

localhost: stopping tasktracker

no namenode to stop

localhost: stopping datanode

localhost: stopping secondarynamenode

当我通过在命令行中输入 jps 再次检查正在运行的作业时,得到以下信息:

[root@iq bin]# jps

11823 Jps

25258 JobTracker

24237 NameNode

JobTracker 和 NameNode 好像都没有停止,谁能帮帮我。

最佳答案

当保存在/tmp/*.pid 文件中的 pid 与名称节点的实际 pid 不匹配时,hadoop 1.1.2 会发生这种情况。

我打开stop-dfs.sh,好像是这样调用的:

/opt/hadoop-1.1.2/bin/hadoop-daemon.sh --config /opt/hadoop-1.1.2/conf/ stop namenode

这个也失败了。然后在检查代码时,似乎脚本本身正在执行 hadoop 守护程序的 kill -9。

手动终止守护进程任务后(不需要信号 9)- 我能够使用 stop-dfs.sh 脚本正确启动和停止 dfs。后来就没有出现这个问题了。

关于hadoop - 运行命令 stop-all.sh 时没有 JobTracker 和 NameNode 停止,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21460658/

相关文章:

scala - 我想将 Hive 中所有现有的 UDTF 转换为 Scala 函数并从 Spark SQL 使用它

mysql - 如何处理具有大量读写操作的十亿行表

hadoop - 在Hive中添加表遇到HCatClient错误

hadoop - PIG负载未提供正确的输出

hadoop - MapReduce作业: combiner without reducer

hadoop - 文件未存储在分布式缓存中

hadoop - Iterable 在 mapreduce Reduce Task 中不起作用

apache-spark - EMR 没有检测到所有的内存

Hadoop快照查询-删除&元数据信息

hadoop - 使用带有回车符的HIVE-Error在Hadoop中加载电子邮件数据