Apache spark spark ClassCastException:org.apache.spark.rdd.rdd.org$apache$spark$rdd$rdd$$dependencies_

Apache spark spark ClassCastException:org.apache.spark.rdd.rdd.org$apache$spark$rdd$rdd$$dependencies_,apache-spark,Apache Spark,原因:java.lang.ClassCastException:无法将scala.collection.immutable.List$SerializationProxy的实例分配给org.apache.spark.rdd.rdd.org$apache$spark$rdd$rdd$$dependencies类型的字段org.apache.spark.rdd.rdd 使用dataset.map()时出现上述错误。为什么?这里也有同样的问题,你有什么解决办法吗?

原因:java.lang.ClassCastException:无法将scala.collection.immutable.List$SerializationProxy的实例分配给org.apache.spark.rdd.rdd.org$apache$spark$rdd$rdd$$dependencies类型的字段org.apache.spark.rdd.rdd


使用
dataset.map()
时出现上述错误。为什么?

这里也有同样的问题,你有什么解决办法吗?