Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark 在Spark 2.0中从RDD收集案例类时返回异常_Apache Spark_Rdd_Case Class - Fatal编程技术网

Apache spark 在Spark 2.0中从RDD收集案例类时返回异常

Apache spark 在Spark 2.0中从RDD收集案例类时返回异常,apache-spark,rdd,case-class,Apache Spark,Rdd,Case Class,这也许微不足道,但我无法理解我做错了什么。从RDD收集案例类似乎有一些问题 case class Test(val1 :Double, val2 :Double) val myrdd = sc.makeRDD(Array(Test(1,1),Test(1,1),Test(1,1),Test(1,1))) myrdd.collect.foreach(x => println(x.val1)) 返回: stderr]:> failure running last command:

这也许微不足道,但我无法理解我做错了什么。从RDD收集案例类似乎有一些问题

case class Test(val1 :Double, val2 :Double)

val myrdd = sc.makeRDD(Array(Test(1,1),Test(1,1),Test(1,1),Test(1,1)))

myrdd.collect.foreach(x => println(x.val1))
返回:

stderr]:> failure running last command: org.apache.spark.SparkException: Job aborted due to stage failure: ClassNotFound with classloader: sun.misc.Launcher$AppClassLoader@5d6f64b1
  at org.apache.spark.scheduler.DAGScheduler.org$apache$spark$scheduler$DAGScheduler$$failJobAndIndependentStages(DAGScheduler.scala:1450)
at org.apache.spark.scheduler.DAGScheduler$$anonfun$abortStage$1.apply(DAGScheduler.scala:1438)
  at org.apache.spark.scheduler.DAGScheduler$$anonfun$abortStage$1.apply(DAGScheduler.scala:1437)
  at scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala:59)
  at scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:48)
...
如果我在收集所有内容之前将case类映射到一个元组,那么效果很好。试图从类路径中的库导入案例类,而不是声明它,同样的错误,没有运气。这在本地模式下的火花壳中工作良好。
我正在运行mesos星团上的Spark 2.0。非常感谢您的帮助。

我无法用给定的信息重现错误。忘记提及-它在spark shell本地模式下工作正常。它破裂的地方是在一个运行着介观星团火花的星团上。我将编辑这个问题。我不能用给定的信息复制错误。忘记提及-它在spark shell本地模式下工作良好。它破裂的地方是在一个运行着介观星团火花的星团上。我将编辑这个问题。