rest - WebHDFS在Hortonworks中给出错误

标签 rest hadoop hdfs hortonworks-data-platform bigdata

在设置历史记录服务器和配置单元服务器时,webHDFS在REST API中出现以下错误。

curl -sS -L -w '%{http_code}' -X PUT -T /usr/hdp/2.3.4.0-3485/hadoop/mapreduce.tar.gz 'http://ambari1.devcloud.247-inc.net:50070/webhdfs/v1/hdp/apps/2.3.4.0-3485/mapreduce/mapreduce.tar.gz?op=CREATE&user.name=hdfs&overwrite=True&permission=444'

{"RemoteException": {"exception":"IOException",
"javaClassName":"java.io.IOException",
"message":"Failed to find datanode, suggest to check cluster health."
}}403

最佳答案

以用户hdfs检查群集状态
hdfs dfsadmin -report
我遇到了同样的问题,报告显示数据节点未联机。最后,我必须将节点添加到/ etc / hosts文件中。在您的情况下,这可能是另一个原因,最重要的是数据节点必须启动并且可以访问。

关于rest - WebHDFS在Hortonworks中给出错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34997412/

相关文章:

xml - 使用 Biztalk WCF-WebHttp 适配器调用 REST API 以获取 CSV 数据

python - Hadoop 流式处理因 java.io.FileNotFoundException 而失败

java - 如何使用spark java解压存储在hdfs中的文件

java - 如何使用 REST 将二进制文件从 JQuery 客户端发布到 Java 服务器

java - 通过REST API处理ManyToOne实体集合的更新

Hadoop 集群故障转移

hadoop - Hbase master 构建失败

java.lang.OutOfMemoryError : Java heap space Hadoop Ubuntu 错误

file - 无法从 map 写入 hadoop 文件系统 (HDFS)

rest - CQRS、事件溯源和 Web 应用程序