hadoop - Namenode-HDFS "Connection refused"错误(Hadoop 问题)

标签 hadoop hdfs

当我们看到使用 jps 命令时,我的所有节点都已启动并正在运行,但我仍然无法连接到 hdfs 文件系统。每当我在 Hadoop Namenode localhost:8020 页面上单击 Browse the filesystem 时,我得到的错误是 Connection Refused。我也尝试过格式化并重新启动名称节点,但错误仍然存​​在。谁能帮我解决这个问题。

最佳答案

检查您的所有服务是否都在运行 JobTracker、Jps、NameNode。 DataNode、TaskTracker通过运行jps命令。

尝试一个一个地运行它们:

./bin/stop-all.sh
./bin/hadoop-daemon.sh start namenode
./bin/hadoop-daemon.sh start jobtracker
./bin/hadoop-daemon.sh start tasktracker
./bin/hadoop-daemon.sh start datanode

如果您仍然遇到错误,请再次停止它们并清理您的临时存储目录。目录详细信息在配置文件 ./conf/core-site.xml 和运行中,

./bin/stop-all.sh
rm -rf /tmp/hadoop*
./bin/hadoop namenode -format

检查 ./logs 文件夹中的日志。

tail -200 hadoop*jobtracker*.log
tail -200 hadoop*namenode*.log
tail -200 hadoop*datanode*.log

希望对您有所帮助。

关于hadoop - Namenode-HDFS "Connection refused"错误(Hadoop 问题),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15630460/

相关文章:

java - 线程中的异常 "main"java.io.IOException : Job failed

hadoop - 如何防止 hadoop 作业在损坏的输入文件上失败

hadoop - 为什么当名称节点启动但数据节点关闭时Hadoop打开文件成功?

hadoop - HDFS基准测试-Terasort输出记录数

hadoop - HDFS 中的文本文件未正确压缩

java - 当事件数等于或超过 batchSize 时,为什么 Flume-NG HDFS sink 不写入文件?

hadoop - 名称节点未在 hadoop 中格式化

xml - 无法启动MapReduce任务。找不到或加载主类org.apache.hadoop.mapreduce.v2.app.MRAppMaster

java - 仅一个文件中几个小文件的SequenceFile压缩器

java - 在Mapreduce中,我想知道是否有某种方法可以使用java使用2个csv文件