hadoop - 如何配置HDFS监听0.0.0.0

标签 hadoop

我有一个 hdfs 集群在 192.168.50.1:9000 上监听,这意味着它只接受通过该 IP 的连接。我希望它在 0.0.0.0:9000 上收听。当我在 /etc/hosts 中输入 127.0.0.1 localhost master 时,它从 127.0.0.1:9000 开始,这会阻止所有节点连接。

这个问题和这个问题很相似How to make Hadoop servers listening on all IPs ,但对于 hdfs,不是 yarn。

core-site.xml 是否有类似 yarn.resourcemanager.bind-host 的等效设置或任何其他配置方式?如果不是,那么这背后的原因是什么?这是一项安全功能吗?

最佳答案

对于 NameNode,您需要在 hdfs-site.xml 中将这些设置为 0.0.0.0:

  • dfs.namenode.rpc-bind-host
  • dfs.namenode.servicerpc-bind-host
  • dfs.namenode.lifeline.rpc-bind-host
  • dfs.namenode.http-bind-host
  • dfs.namenode.https-bind-host

DataNode 默认使用 0.0.0.0

如果您需要为 HDFS 查找配置变量,请参阅 hdfs-default.xml .

也非常有用,如果您查看任何官方 Hadoop 文档,页面的左下角是各种 XML 文件的所有默认值。

enter image description here

所以你可以去Apache Hadoop 2.8.0或您的特定版本并找到您要查找的设置。

关于hadoop - 如何配置HDFS监听0.0.0.0,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54915708/

相关文章:

hadoop - OOZIE 工作流 : HIVE table did not exists but directory created in HDFS

hadoop - 从 Prediction-IO App 中删除事件

hadoop - 有谁知道如何克服Hadoop中的Kerberos配置警告?

windows - 在 Windows 上安装 Hadoop?

sql - 查询hbase行键

hadoop - Oozie 4.2 中禁用的工作流错误日志

linux - 安装 hadoop 时 ssh 失败 :connect to host master port 22: connection refused

hadoop - pig 中的xml解析

oracle - Sqoop导入字符串哈希值具有特殊字符

hadoop - "hadoop namenode -format"格式错误的目录