Gradle:在Eclipse中使用ApacheSpark设置Scala项目
我无法在Eclipse中设置带有ApacheSpark依赖项的Scala项目。在Eclipse中使用Scala IDE插件和Gradle插件<代码>build.gradle项目如下所示:Gradle:在Eclipse中使用ApacheSpark设置Scala项目,eclipse,scala,apache-spark,gradle,Eclipse,Scala,Apache Spark,Gradle,我无法在Eclipse中设置带有ApacheSpark依赖项的Scala项目。在Eclipse中使用Scala IDE插件和Gradle插件build.gradle项目如下所示: apply plugin: 'scala' apply plugin: 'eclipse' repositories{ mavenCentral() mavenLocal() } dependencies{ compile 'org.slf4j:slf4j-api:1.7.5' co
apply plugin: 'scala'
apply plugin: 'eclipse'
repositories{
mavenCentral()
mavenLocal()
}
dependencies{
compile 'org.slf4j:slf4j-api:1.7.5'
compile "org.scala-lang:scala-library:2.11.2"
compile 'com.sparkjava:spark-core:2.3'
testCompile "junit:junit:4.11"
}
task run(type: JavaExec, dependsOn: classes) {
main = 'Main'
classpath sourceSets.main.runtimeClasspath
classpath configurations.runtime
}
在参考库下
我可以看到spark-core-2.3.jar。但我无法将任何Spark库导入Scala类。我确实尝试运行了
gradle eclipse
命令,但没有成功。您引用了错误的依赖项-而不是com.sparkjava:spark core:2.3
(属于另一个项目),您应该包括:
compile 'org.apache.spark:spark-core_2.11:2.0.1'
这使用了最新的稳定版本(2.0.1)。您引用了错误的依赖项-而不是
com.sparkjava:spark core:2.3
(属于另一个项目),您应该包括:
compile 'org.apache.spark:spark-core_2.11:2.0.1'
它使用最新的稳定版本(2.0.1)