Hadoop双节点集群环境,NameNode的web UI显示活节点数为1,死节点数为0

标签 hadoop bigdata

我为Hadoop正确配置了两节点集群环境,Master也为datanode配置好了。 所以目前我有两个数据节点,我可以毫无问题地启动 Master 中的所有服务。 从数据节点也能够停止从主节点启动。 但是当我使用 url http://<IP>:50070/dfshealth.jsp 检查健康状况时事件节点数始终只显示一个而不是两个。

主流程:

~/hadoop-1.2.0$ jps
9112 TaskTracker
8805 SecondaryNameNode
9182 Jps
8579 DataNode
8887 JobTracker
8358 NameNode

从属进程:

~/hadoop-1.2.0$ jps
18130 DataNode
18380 Jps
18319 TaskTracker

请帮助我知道我做错了什么。

最佳答案

第二个 DataNode 正在运行但没有连接到 NameNode。您可能重新格式化了 NameNode,现在 NameNode 和 DataNode 中的版本号不同。

解决方法是手动删除 DataNode 保存其数据的目录 (dfs.datanode.data.dir),然后重新格式化 NameNode。一种不太极端的方法是手动编辑版本,但出于学习目的,您可以砍掉整个目录。

关于Hadoop双节点集群环境,NameNode的web UI显示活节点数为1,死节点数为0,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24950472/

相关文章:

java - 由于权限被拒绝,在hadoop.tmp.dir/tmp/hadoop-sha中创建临时目录时出错

hadoop - 不用时可以关闭Azure HDInsight群集以避免收费吗

java - InvalidInputException 将文件加载到 Hbase MapReduce 时

mysql - 如何预测在给定数据库结构和给定表大小下完成 SQL 请求所需的资源?

hadoop - 在Hadoop-3.2.0中运行start-dfs.sh时出错

Java:测试 spark-sql

hadoop - hdfs 将多个文件复制到同一目标目录

hadoop - 为什么即使文件大小不是64MB也会拆分块文件?

java - 如何通过网络运行Hadoop程序

hadoop - 大数据/Hadoop项目的典型流程?