Maven Flink错误-org.apache.hadoop.ipc.RemoteException:服务器ipc版本9无法与客户端版本4通信

Maven Flink错误-org.apache.hadoop.ipc.RemoteException:服务器ipc版本9无法与客户端版本4通信,maven,hadoop,apache-flink,Maven,Hadoop,Apache Flink,我正在尝试使用HDFS中的文件运行flink作业。我创建了一个数据集,如下所示- DataSource<Tuple2<LongWritable, Text>> visits = env.readHadoopFile(new TextInputFormat(), LongWritable.class,Text.class, Config.pathToVisits()); 你能让我知道我应该在pom中做什么更改,以便它指向正确的Hadoop/HDFS版本吗?还是其他地方的变

我正在尝试使用HDFS中的文件运行flink作业。我创建了一个数据集,如下所示-

DataSource<Tuple2<LongWritable, Text>> visits = env.readHadoopFile(new TextInputFormat(), LongWritable.class,Text.class, Config.pathToVisits());
你能让我知道我应该在pom中做什么更改,以便它指向正确的Hadoop/HDFS版本吗?还是其他地方的变化?
或者我需要降级hadoop安装?

您是否尝试过Flink的hadoop-2版本?看一看这张照片。有一个名为
flink-0.9.0-milestone-1-bin-hadoop2.tgz的构建应该可以与hadoop2一起使用。

感谢Fabian,它在向项目中添加hadoop2 main dist jar后工作了。有没有其他方法可以从pom中引用这个(Hadoop2)构建版本?(我们是否有针对0.9的hadoop2内置maven存储库?)。我直接从IDE运行flink程序。
Exception in thread "main" org.apache.hadoop.ipc.RemoteException: Server IPC version 9 cannot communicate with client version 4
at org.apache.hadoop.ipc.Client.call(Client.java:1113)
at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229)
at com.sun.proxy.$Proxy5.getProtocolVersion(Unknown Source)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)