Apache spark scala版本为Spark的交叉编译jar文件
我不能用scala ide运行我的第一个简单的spark程序 我检查了我所有的财产,我相信这是正确的 这是具有属性的Apache spark scala版本为Spark的交叉编译jar文件,apache-spark,scala-ide,Apache Spark,Scala Ide,我不能用scala ide运行我的第一个简单的spark程序 我检查了我所有的财产,我相信这是正确的 这是具有属性的 有什么帮助吗?问题在于,您试图将Scala 2.11.8作为依赖项包含在应用程序中,而Spark工件依赖于Scala 2.10 您有两种解决问题的方法: 使用Scala 2.10.x 使用依赖Scala 2.11的Spark瑕疵(例如Spark-core_2.11而不是Spark-core_2.10) 问题在于,您试图将Scala 2.11.8作为依赖项包含在应用程序中,而Sp
有什么帮助吗?问题在于,您试图将Scala 2.11.8作为依赖项包含在应用程序中,而Spark工件依赖于Scala 2.10 您有两种解决问题的方法:
- 使用Scala 2.10.x
- 使用依赖Scala 2.11的Spark瑕疵(例如Spark-core_2.11而不是Spark-core_2.10)
- 使用Scala 2.10.x
- 使用依赖Scala 2.11的Spark瑕疵(例如Spark-core_2.11而不是Spark-core_2.10)