Gradle:在Eclipse中使用ApacheSpark设置Scala项目

Gradle:在Eclipse中使用ApacheSpark设置Scala项目,eclipse,scala,apache-spark,gradle,Eclipse,Scala,Apache Spark,Gradle,我无法在Eclipse中设置带有ApacheSpark依赖项的Scala项目。在Eclipse中使用Scala IDE插件和Gradle插件build.gradle项目如下所示: apply plugin: 'scala' apply plugin: 'eclipse' repositories{ mavenCentral() mavenLocal() } dependencies{ compile 'org.slf4j:slf4j-api:1.7.5' co

我无法在Eclipse中设置带有ApacheSpark依赖项的Scala项目。在Eclipse中使用Scala IDE插件和Gradle插件<代码>build.gradle项目如下所示:

apply plugin: 'scala'
apply plugin: 'eclipse'

repositories{
    mavenCentral()
    mavenLocal()
}

dependencies{
    compile 'org.slf4j:slf4j-api:1.7.5'
    compile "org.scala-lang:scala-library:2.11.2"
    compile 'com.sparkjava:spark-core:2.3'
    testCompile "junit:junit:4.11"
}

task run(type: JavaExec, dependsOn: classes) {
    main = 'Main'
    classpath sourceSets.main.runtimeClasspath
    classpath configurations.runtime
}
参考库下
我可以看到spark-core-2.3.jar。但我无法将任何Spark库导入Scala类。

我确实尝试运行了
gradle eclipse
命令,但没有成功。

您引用了错误的依赖项-而不是
com.sparkjava:spark core:2.3
(属于另一个项目),您应该包括:

compile 'org.apache.spark:spark-core_2.11:2.0.1'

这使用了最新的稳定版本(2.0.1)。

您引用了错误的依赖项-而不是
com.sparkjava:spark core:2.3
(属于另一个项目),您应该包括:

compile 'org.apache.spark:spark-core_2.11:2.0.1'
它使用最新的稳定版本(2.0.1)