Java 在构建和包含spark时,符号引用错误
我正在做一件事,包括扩展Spark项目。我正在使用Spark的make-distribution.sh,并成功地从github上的代码构建JAR。但是,当我将JAR作为依赖项包含并在IntelliJ中编译时:Java 在构建和包含spark时,符号引用错误,java,scala,maven,apache-spark,Java,Scala,Maven,Apache Spark,我正在做一件事,包括扩展Spark项目。我正在使用Spark的make-distribution.sh,并成功地从github上的代码构建JAR。但是,当我将JAR作为依赖项包含并在IntelliJ中编译时: package org.apache.spark object Main extends App{ println(org.apache.spark.util.Utils.random.nextInt()) } 我得到一个编译错误: 错误:scalac:错误的符号引用。Utils
package org.apache.spark
object Main extends App{
println(org.apache.spark.util.Utils.random.nextInt())
}
我得到一个编译错误:
错误:scalac:错误的符号引用。Utils.class中的签名引用包com.google.common中的术语util,该术语不可用。
当前类路径中可能完全缺少它,或者类路径上的版本可能与编译Utils.class时使用的版本不兼容
有人能告诉我这里出了什么问题吗?谢谢你的帮助-Luke错误消息说您的scalac找不到com.google.common package.util: Utils.class依赖于com.google.common包中的util 您的scalac无法使用com.google.common 当前类路径中可能完全缺少包 或者类路径上的版本可能与编译Utils.class时使用的版本不兼容
检查您如何解决sparc项目的依赖关系。不确定它现在是否有帮助,因为它的旧帖子,但是,这个问题在最新版本的Spark-