hadoop - webhdfs 总是重定向到本地主机 :50075

标签 hadoop webhdfs

我有一个 hdfs 集群 (hadoop 2.7.1),有一个名称节点、一个辅助名称节点、3 个数据节点。

当我启用 webhdfs 并进行测试时,我发现它总是重定向到未配置为数据节点的“localhost:50075”。

csrd@secondarynamenode:~/lybica-hdfs-viewer$ curl -i -L "http://10.56.219.30:50070/webhdfs/v1/demo.zip?op=OPEN"
HTTP/1.1 307 TEMPORARY_REDIRECT
Cache-Control: no-cache
Expires: Tue, 01 Dec 2015 03:29:21 GMT
Date: Tue, 01 Dec 2015 03:29:21 GMT
Pragma: no-cache
Expires: Tue, 01 Dec 2015 03:29:21 GMT
Date: Tue, 01 Dec 2015 03:29:21 GMT
Pragma: no-cache
Location: http://localhost:50075/webhdfs/v1/demo.zip?op=OPEN&namenoderpcaddress=10.56.219.30:9000&offset=0
Content-Type: application/octet-stream
Content-Length: 0
Server: Jetty(6.1.26)

curl: (7) Failed to connect to localhost port 50075: Connection refused

etc/hadoop/slaves 配置为:

10.56.219.32
10.56.219.33
10.56.219.34

这上面有什么配置吗?

谢谢!

最佳答案

嗯,这是/etc/hosts 的错误。

数据节点上的/etc/hosts 是:

127.0.0.1   localhost datanode-1

将其更改为:

127.0.0.1   datanode-1 localhost

解决这个问题。

关于hadoop - webhdfs 总是重定向到本地主机 :50075,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34012135/

相关文章:

hadoop - 无法将Power BI连接到Hadoop HDFS未能获取内容

hadoop - 通过 webHDFS REST API 将图像上传到 HDFS 的问题

hadoop - jobconf.limit设置为5MB时,如何在作业跟踪器中有66MB的作业配置?

hadoop - Hadoop 如何决定在桶/节点之间分配?

hadoop - WebHDFS FileNotFoundException rest api

hadoop - 未指定namenoderpcaddress

hadoop - logstash 到 webhdfs 未能 APPEND_FILE/user/

hadoop - Avro mapreduce 作业失败 java.lang.IncompatibleClassChangeError

hadoop - 1个Tasktracker能否运行多个JVM

hadoop - 指定要在Hive中进行分区的字段时返回错误