Apache spark 在Spark 2.0中从RDD收集案例类时返回异常
这也许微不足道,但我无法理解我做错了什么。从RDD收集案例类似乎有一些问题Apache spark 在Spark 2.0中从RDD收集案例类时返回异常,apache-spark,rdd,case-class,Apache Spark,Rdd,Case Class,这也许微不足道,但我无法理解我做错了什么。从RDD收集案例类似乎有一些问题 case class Test(val1 :Double, val2 :Double) val myrdd = sc.makeRDD(Array(Test(1,1),Test(1,1),Test(1,1),Test(1,1))) myrdd.collect.foreach(x => println(x.val1)) 返回: stderr]:> failure running last command:
case class Test(val1 :Double, val2 :Double)
val myrdd = sc.makeRDD(Array(Test(1,1),Test(1,1),Test(1,1),Test(1,1)))
myrdd.collect.foreach(x => println(x.val1))
返回:
stderr]:> failure running last command: org.apache.spark.SparkException: Job aborted due to stage failure: ClassNotFound with classloader: sun.misc.Launcher$AppClassLoader@5d6f64b1
at org.apache.spark.scheduler.DAGScheduler.org$apache$spark$scheduler$DAGScheduler$$failJobAndIndependentStages(DAGScheduler.scala:1450)
at org.apache.spark.scheduler.DAGScheduler$$anonfun$abortStage$1.apply(DAGScheduler.scala:1438)
at org.apache.spark.scheduler.DAGScheduler$$anonfun$abortStage$1.apply(DAGScheduler.scala:1437)
at scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala:59)
at scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:48)
...
如果我在收集所有内容之前将case类映射到一个元组,那么效果很好。试图从类路径中的库导入案例类,而不是声明它,同样的错误,没有运气。这在本地模式下的火花壳中工作良好。
我正在运行mesos星团上的Spark 2.0。非常感谢您的帮助。我无法用给定的信息重现错误。忘记提及-它在spark shell本地模式下工作正常。它破裂的地方是在一个运行着介观星团火花的星团上。我将编辑这个问题。我不能用给定的信息复制错误。忘记提及-它在spark shell本地模式下工作良好。它破裂的地方是在一个运行着介观星团火花的星团上。我将编辑这个问题。