hadoop - 向运行中的集群添加新的datanode

标签 hadoop

如果我正在使用由三个节点组成的Hadoop集群,且Apache Hadoop版本2.7.1

( Activity 名称节点nn1,备用名称节点nn2和数据节点n1)

并且我们决定在运行dn2的集群中添加一个新的数据节点
(我们称此为动态添加数据节点)

在不停止名称节点上的服务的情况下实现此目标的最佳方法是什么

当然,首先我们必须在这个新的数据节点上安装Hadoop文件,或者我们可以从名称节点复制它们,不是吗?

最佳答案

安装并配置新的hadoop节点。
确保在core-site.xml.j2中提到正确的namenode IP

然后可以使用以下命令启动datanode

/sbin/hadoop-daemon.sh start datanode

这会将节点添加到群集中。

关于hadoop - 向运行中的集群添加新的datanode,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43841810/

相关文章:

hadoop - 如何将 Double[] 插入到 HBase 中?

azure - 从Blob复制本地hdinsight

linux - Hive 表字段由 '¬' 分隔 hive 不接受此字符

sql - 配置单元确定日期重叠的记录

hadoop - Hadoop:从源(即我的PC)将文件加载到HDFS时出现错误

hadoop - 使用 Elasticsearch 实时分析事件日志

hadoop - mapreduce程序中的cachedDistributed文件有多少开销?

apache-spark - 触发流无法写入hdfs路径

hadoop - Tableau、Hadoop 和 Birt

hadoop - 如何确定执行配置单元查询所需的作业总数