amazon-web-services - HdfsRpcException:无法在服务器上调用RPC调用 “getFsStats”

标签 amazon-web-services hadoop hdfs sap vora

我在EC2实例上安装了一个单节点Hadoop群集。然后,我将一些测试数据存储在hdfs上,并尝试将hdfs数据加载到SAP Vora。我正在为此项目使用SAP Vora 2.0。

要创建表并将数据加载到Vora,这是我正在运行的查询:

drop table if exists dims;
CREATE TABLE dims(teamid int, team string)
USING com.sap.spark.engines.relational 
OPTIONS (
hdfsnamenode "namenode.example.com:50070",
files "/path/to/file.csv",
storagebackend "hdfs");

当我运行上面的查询时,我收到此错误消息:
com.sap.vora.jdbc.VoraException: HL(9): Runtime error.
  (could not handle api call, failure reason : execution of scheduler plan failed:
    found error: :-1, CException, Code: 10021 : Runtime category : an std::exception wrapped.
    Next level: v2 HDFS Plugin: Exception at opening
    hdfs://namenode.example.com:50070/path/to/file.csv:
    HdfsRpcException: Failed to invoke RPC call "getFsStats" on server
    "namenode.example.com:50070" for node id 20
    with error code 0, status ERROR_STATUS

Hadoop和Vora在不同的节点上运行。

最佳答案

您应该指定HDFS Namenode端口,通常为8020。50700是WebUI的端口。参见例如Default Namenode port of HDFS is 50070.But I have come across at some places 8020 or 9000

关于amazon-web-services - HdfsRpcException:无法在服务器上调用RPC调用 “getFsStats”,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49144505/

相关文章:

apache - 面向 SaaS 产品客户的自定义域功能

hadoop - Spark Streaming - HBase 批量加载

hadoop - Hadoop无法理解复合键是否相等

hadoop - 配置不正确 : namenode address dfs. namenode.rpc-address没有配置

hadoop - 从HIVE表中提取单个列

amazon-web-services - 对于具有 "insufficient_scope: authorization failed"host=registry-1.docker.io 的公共(public) DockerHub 镜像,Docker ecs 集成失败”

java - 使用 AWS SSO 时 AWS Java SDK 找不到配置文件

mysql - 将庞大的数据库从amazon RDS导出到本地mysql

hadoop - 如何对Hive分区表使用insert语句?

hadoop - 设置 20TB 存储 : use normal file system or hadoop