Java org.spark_project.guava.util.concurrent.ExecutionError:NoClassdefFoundError未经检查的编译器异常

Java org.spark_project.guava.util.concurrent.ExecutionError:NoClassdefFoundError未经检查的编译器异常,java,apache-spark-sql,Java,Apache Spark Sql,在这个示例代码中,当执行到达~.RDD()调用时,我有一个异常: enter code here JavaRDD<String,String> row = sparkSession.read() .textFile("~~~") .javaRDD() <--------- (Execution Error)

在这个示例代码中,当执行到达~.RDD()调用时,我有一个异常:

enter code here
JavaRDD<String,String> row = sparkSession.read()
                                   .textFile("~~~")
                                   .javaRDD()   <--------- (Execution Error)
                                 .map(some Function);
在此处输入代码
JavaRDD row=sparkSession.read()
.textFile(“~~~”)

.javaRDD()解决方案如下:

`<dependency>
  <groupId>org.apache.spark</groupId>
  <artifactId>spark-sql_2.11</artifactId>
  <version>2.1.1</version>
  <exclusions>
   <exclusion>
     <groupId>org.codehaus.janino</groupId>
     <artifactId>janino</artifactId>
   </exclusion>
   <exclusion>
     <groupId>org.codehaus.janino</groupId>
     <artifactId>commons-compiler</artifactId>
   </exclusion>
  </exclusions>
 </depenedency>
 <dependency>
   <groupId>org.codehaus.janino</groupId>
   <artifactId>commons-compiler</artifactId>
   <version>3.07</version>
 </dependency>
 <dependency>
   <groupId>org.codehaus.janino</groupId>
   <artifactId>janino</artifactId>
   <version>3.07</version>
 </dependency>`
`
org.apache.spark
spark-sql_2.11
2.1.1
org.codehaus.janino
贾尼诺
org.codehaus.janino
通用编译器
org.codehaus.janino
通用编译器
3.07
org.codehaus.janino
贾尼诺
3.07
`

但是,不要在项目中使用DependencyManager来管理janino,因为它不会工作。解决方案是使用EXLUSIONS=>像这样,janino-2.x.jar不包括在这种方式中。

您可以添加pom.xml文件吗?您在类路径中使用了哪些jar?您的pom.xml文件是否为空?@ShankarKoirala我使用common.compiler&spark-core_2.x&spark-streaming_2.x&spark-sql_2.x&spark-streaming_2.x。。。。。还有其他的。有很多依赖项使用janino-2x.jar,比如transiente依赖项和(mvn dependency:tree)不显示这个transiente dep,我已经在我的父pom中使用dependency管理,最后一个就是解决方案