hadoop - 对 webhdfs 的 http 请求,但服务器的回复为空

标签 hadoop

我是 hadoop 的新手。我启用了 webhdfs 并使用 curl 命令获取主目录。

curl -i "http://172.16.18.50:9000/webhdfs/v1/?op=GETHOMEDIRECTORY"

但是获取信息:来自服务器的空回复。这是 conf 文件:

核心站点.xml ----

<configuration>
   <property>
      <name>fs.default.name</name>
      <value>hdfs://webHDFS0:9000</value>
   </property>

   <property>
      <name>hadoop.tmp.dir</name>
      <value>/home/eins/hadoop-1.0.2/tmp</value>
   </property>
</configuration>

hdfs-site.xml ----

<configuration>
   <property>
      <name>dfs.replication</name>
      <value>2</value>
   </property>
    <property>
        <name>dfs.webhdfs.enabled</name>
        <value>enabled</value>
    </property>
</configuration>

谁能给些建议?

最佳答案

您正在尝试连接到 NameNode IPC 套接字(端口 9000),而不是网络套接字(默认为 50075)。试试这个:

http://172.16.18.50:50075/webhdfs/v1/?op=GETHOMEDIRECTORY

此外,您在 hdfs-site.xml 中的配置需要将 true 作为其值,而不是 enabled:

hdfs-site.xml ----

<configuration>
   <property>
      <name>dfs.replication</name>
      <value>2</value>
   </property>
    <property>
        <name>dfs.webhdfs.enabled</name>
        <value>true</value>
    </property>
</configuration>

要确认一切正常,请查看您的名称节点的日志,您应该会看到如下内容:

2012-05-22 06:23:42,176 INFO org.apache.hadoop.http.HttpServer: dfs.webhdfs.enabled = true
2012-05-22 06:23:42,177 INFO org.apache.hadoop.http.HttpServer: Added filter 'SPNEGO' (class=org.apache.hadoop.hdfs.web.AuthFilter)
2012-05-22 06:23:42,179 INFO org.apache.hadoop.http.HttpServer: addJerseyResourcePackage: packageName=org.apache.hadoop.hdfs.server.namenode.web.resources;org.apache.hadoop.hdfs.web.resources, pathSpec=/webhdfs/v1/*

目前,我假设你说的是:

2012-05-22 06:11:20,676 INFO org.apache.hadoop.http.HttpServer: dfs.webhdfs.enabled = false

关于hadoop - 对 webhdfs 的 http 请求,但服务器的回复为空,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10672700/

相关文章:

hadoop - 如果数据不是本地的,任务跟踪器如何从另一个节点获取 map task 的数据?

python - 通过Python处理HDFS中的多个文件

hadoop - 孤立的 Yarn 子进程会发生什么?

hadoop - 在 hive 中创建 TABLE 后添加 PARTITION

hadoop - Cloudera manager - hadoop安装失败

hadoop - 如何Hadoop Map Reduce整个文件

hadoop - Mapreduce 作业消耗更多资源和更改队列

hadoop - Spark 1.6.Token只能通过kerberos或web认证方式下发

使用 zip 输入文件的 Hadoop 流式处理

java - Hadoop 作业不会被杀死