hadoop - 在 [ubuntu] ubuntu : ssh: connect to host ubuntu port 22: No route to host 上启动名称节点

标签 hadoop hdfs

当我使用 hdfs-dfs.sh 启动 Namenode 时,出现错误Starting namenodes on [ubuntu] ubuntu: ssh: 连接到主机 ubuntu 端口 22: 没有到主机的路由

最佳答案

1.请检查core-site.xml文件

<configuration>
<property>
    <name>fs.default.name</name>
    <value>hdfs://192.168.203.137:9000</value>
    <description>The name of the default file system.</description>
</property>

  1. 请在 Ubuntu 终端中使用 ipconfig 命令检查您的名称节点(主节点)IP

Link encap:Ethernet HWaddr 00:0c:29:57:b9:dc
inet addr:192.168.203.137

  1. 以上core-site.xml中的配置IP和Master节点IP要相同。
  2. 格式化名称节点

hduser@prasanta$ hdfs namenode -format

  1. 开始dfs

hduser@prasanta$start-dfs.sh

谢谢

关于hadoop - 在 [ubuntu] ubuntu : ssh: connect to host ubuntu port 22: No route to host 上启动名称节点,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29326578/

相关文章:

apache-spark - 使用 HDFS 存储的 Spark 作业

hadoop - 为什么 DataFrame.saveAsTable ("df") 将表保存到不同的 HDFS 主机?

hadoop - HDFS 无法使用 Hadoop 3.2 启动 : bash v3. 需要 2+

hadoop - 使用 REST 服务访问 Hadoop 数据

java - 如果我们在运行时在 HBase 中创建 namespace 和表,它会影响应用程序的性能吗?

hadoop - 爬取完成后,我们在哪里可以通过nutch的网络爬取找到数据?

hadoop - 将 Hadoop MapReduce 本地资源可见性更改为 PUBLIC

java - 通用文件系统的 FileInputStream

apache-spark - Spark Connect Hive 到 HDFS vs Spark 直接连接 HDFS 和 Hive 在它上面?

hadoop - Hadoop 中的 InputSplit 自定义