Java 我应该在spark应用程序中包括hadoop common还是hadoop core

Java 我应该在spark应用程序中包括hadoop common还是hadoop core,java,maven,hadoop,apache-spark,Java,Maven,Hadoop,Apache Spark,我试图在本地运行一个简单的单词计数spark应用程序,并从远程hadoop集群读取文件 在maven dependencies中,在我的dependencies中添加hadoop core(最新版本1.2.1)以避免此异常 在Hadoop二进制文件中找不到可执行文件null\bin\winutils.exe 然后我得到了另一个例外,那就是 服务器IPC版本9无法与客户端版本4通信 因此,我在依赖项中包含了hadoop common(最新版本2.6.0) 在此阶段,将再次引发第一个异常 这里有什么

我试图在本地运行一个简单的单词计数spark应用程序,并从远程hadoop集群读取文件

在maven dependencies中,在我的dependencies中添加hadoop core(最新版本1.2.1)以避免此异常

在Hadoop二进制文件中找不到可执行文件null\bin\winutils.exe

然后我得到了另一个例外,那就是

服务器IPC版本9无法与客户端版本4通信

因此,我在依赖项中包含了hadoop common(最新版本2.6.0)

在此阶段,将再次引发第一个异常


这里有什么问题?我相信有冲突,但我想不出来

您的Spark发行版是否使用了正确的Hadoop版本? 您可以从ApacheSpark下载页面获得预构建版本。希望这有帮助