Java intellij idea上出现scala错误:import org.apache.spark.{SparkContext,SparkConf}

Java intellij idea上出现scala错误:import org.apache.spark.{SparkContext,SparkConf},java,scala,intellij-idea,apache-spark,sbt,Java,Scala,Intellij Idea,Apache Spark,Sbt,我使用intelli j idea(如eclipse)与scala集成,我创建了一个scala sbt项目,我使用spark 1.4.0和scala 2.11.6,我在以下方面遇到了错误: 导入org.apache.spark.{SparkContext,SparkConf} buid.sbt文件包含以下代码: 名称:=“简单” 版本:=“1.0” 规模规避:=“2.11.6” libraryDependencies+=“org.apache.spark”%”spark-core_2.10“%”

我使用intelli j idea(如eclipse)与scala集成,我创建了一个scala sbt项目,我使用spark 1.4.0和scala 2.11.6,我在以下方面遇到了错误: 导入org.apache.spark.{SparkContext,SparkConf}

buid.sbt文件包含以下代码:

名称:=“简单”

版本:=“1.0”

规模规避:=“2.11.6”

libraryDependencies+=“org.apache.spark”%”spark-core_2.10“%”1.4.0


当我使用maven构建java应用程序时,我没有问题,问题是当我尝试使用intellij idea用sbt构建scala应用程序时,您的scala版本和spark scala版本是错误的。更改您的spark相关性:

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.4.0"

scala 2.11.6版不能使用spark-core_2.10

2.10和2.11不是二进制兼容的

您可能想要spark-core_2.11,或者您需要阅读以下内容:。 在配置plugins.sbt和build.sbt之后,您需要运行sbt gen idea