“线程中的异常”;“主要”;java.lang.ClassNotFoundException:scala.Any

“线程中的异常”;“主要”;java.lang.ClassNotFoundException:scala.Any,scala,apache-spark,Scala,Apache Spark,我是Scala的新手。所以,有谁能帮我解决以下问题: import org.apache.spark.sql.types.{StructType, DataType, AnyDataType} .. val test = spark.sparkContext.parallelize(Tables.value.getOrElse("db.code_tbls",collection.immutable.Map.empty[String, Any]).toList.seq).toDF("code",

我是Scala的新手。所以,有谁能帮我解决以下问题:

import org.apache.spark.sql.types.{StructType, DataType, AnyDataType}
..

val test = spark.sparkContext.parallelize(Tables.value.getOrElse("db.code_tbls",collection.immutable.Map.empty[String, Any]).toList.seq).toDF("code","cde_desc").as[(String, String)]

我的代码的上面一行抛出了
java.lang.ClassNotFoundException:scala.Any
错误。我试图使我的测试变量也是隐式的。但我还是犯了同样的错误

我还尝试在
中将
Any
更改为
String
。清空[String,Any]
code。但还是一样的错误


非常感谢您的帮助。

尝试collection.immutable.Map[String,Any]()

您能帮助理解您的代码吗?在我的代码表中,是保存配置单元表数据的dataset变量。如果我无法从数据集中获取数据,我将在此处使用getOrElse获取表名和空映射,并将其转换为列表类型。然后我将转换为DF,模式为“code”,“cde_desc”,类型为String。如果我需要添加更多信息,请告诉我。你正在使用Injellij吗?如果是,请尝试使缓存无效并重新启动。是。我试过了,但运气不好。目前,我将collection.immutable.Map.empty[String,Any]替换为null。现在开始工作了。谢谢