hadoop - Hadoop 集群中的主节点崩溃

标签 hadoop cluster-computing

我正在使用 10 节点集群,主节点遇到硬件崩溃,导致所有服务包括 ambari 服务器都无法访问。

我无法访问 HDFS,也无法登录到 ambari。

据说当 Master ndoe 宕机时,SNAMEnode 将接管,但在这种情况下,当 master 无法访问时,似乎没有任何服务在运行。整个集群都宕机了,如何进一步挽救集群?或者这表明我必须重新安装所有东西?

最佳答案

当 namenode 关闭时,辅助 namenode 将不再担任 namenode 的角色。辅助名称节点用于执行检查点。引用https://hadoop.apache.org/docs/r2.4.1/hadoop-project-dist/hadoop-hdfs/HdfsUserGuide.html#Secondary_NameNode了解详情。要使名称节点具有高可用性,您需要实现 HA。引用apache website更多细节。

关于hadoop - Hadoop 集群中的主节点崩溃,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29599883/

相关文章:

hadoop - 如何构建大小不适合 RAM 的布隆过滤器?

python - 发现集群后对其附近/内部进行有效过滤 - python

node.js - 如何让我的 Node.js 应用程序集群化以仅运行一次任务?

memory - 如何为 apache spark worker 更改每个节点的内存

hadoop - 大数据仓库还需要星型模式吗?

linux - 如何在 hadoop worker 机器之间同步配置

algorithm - 用圆圈聚集一组点

cluster-computing - ArangoDB 中的集群和复制

Hadoop Hive 外部表位置?

hadoop - 在 Talend 中实现 UDF 和 Pig Script 逻辑