maven - Flink 错误 - org.apache.hadoop.ipc.RemoteException : Server IPC version 9 cannot communicate with client version 4

标签 maven hadoop apache-flink

我正在尝试使用来自 HDFS 的文件运行 flink 作业。我创建了一个数据集如下 -

DataSource<Tuple2<LongWritable, Text>> visits = env.readHadoopFile(new TextInputFormat(), LongWritable.class,Text.class, Config.pathToVisits());

我使用的是 flink 的最新版本——0.9.0-milestone-1-hadoop1 (我也尝试过 0.9.0-milestone-1)

而我的 Hadoop 版本是 2.6.0

但是,当我尝试执行作业时出现以下异常。我搜索了类似的问题,它与客户端和hdfs之间的版本不兼容有关。

Exception in thread "main" org.apache.hadoop.ipc.RemoteException: Server IPC version 9 cannot communicate with client version 4
at org.apache.hadoop.ipc.Client.call(Client.java:1113)
at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229)
at com.sun.proxy.$Proxy5.getProtocolVersion(Unknown Source)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)

能否请您告诉我应该在我的 pom 中进行哪些更改,以便它指向正确的 Hadoop/HDFS 版本?或其他地方的变化? 或者我需要降级 hadoop 安装?

最佳答案

您是否尝试过 Flink 的 Hadoop-2 版本?看看 downloads page .有一个名为 flink-0.9.0-milestone-1-bin-hadoop2.tgz 的构建应该可以与 Hadoop 2 一起使用。

关于maven - Flink 错误 - org.apache.hadoop.ipc.RemoteException : Server IPC version 9 cannot communicate with client version 4,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30847667/

相关文章:

maven - 在 Maven 中本地引用依赖 jar

java - 包括核心和数学文件夹的 Mahout 数学库类 - Eclipse - Hadoop

java - Apache flink(稳定版本1.6.2)无法工作

linux - 在 Windows 上开发并构建 - 使用 Vagrant 在 Linux 上部署?

java - cvc-complex-type.2.4.c : The matching wildcard is strict, 但找不到元素 'jaxws:inInterceptors' 的声明

java - Drools:如何设置多线程(multithreadEvaluation)7.34.0 -Java Maven Spring

docker - Flink Docker镜像

hadoop - Hadoop MapReduce 中的错误

Hadoop 与 SAS 的连接

hadoop - 具有许多并行存储桶的Flink Hadoop存储桶接收器性能