我在EC2实例上安装了一个单节点Hadoop群集。然后,我将一些测试数据存储在hdfs上,并尝试将hdfs数据加载到SAP Vora。我正在为此项目使用SAP Vora 2.0。
要创建表并将数据加载到Vora,这是我正在运行的查询:
drop table if exists dims;
CREATE TABLE dims(teamid int, team string)
USING com.sap.spark.engines.relational
OPTIONS (
hdfsnamenode "namenode.example.com:50070",
files "/path/to/file.csv",
storagebackend "hdfs");
当我运行上面的查询时,我收到此错误消息:
com.sap.vora.jdbc.VoraException: HL(9): Runtime error.
(could not handle api call, failure reason : execution of scheduler plan failed:
found error: :-1, CException, Code: 10021 : Runtime category : an std::exception wrapped.
Next level: v2 HDFS Plugin: Exception at opening
hdfs://namenode.example.com:50070/path/to/file.csv:
HdfsRpcException: Failed to invoke RPC call "getFsStats" on server
"namenode.example.com:50070" for node id 20
with error code 0, status ERROR_STATUS
Hadoop和Vora在不同的节点上运行。
最佳答案
您应该指定HDFS Namenode端口,通常为8020。50700是WebUI的端口。参见例如Default Namenode port of HDFS is 50070.But I have come across at some places 8020 or 9000
关于amazon-web-services - HdfsRpcException:无法在服务器上调用RPC调用 “getFsStats”,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49144505/