Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何将单个Spark行转换为Scala对象?_Scala_Apache Spark_Apache Spark Sql_Rdd - Fatal编程技术网

如何将单个Spark行转换为Scala对象?

如何将单个Spark行转换为Scala对象?,scala,apache-spark,apache-spark-sql,rdd,Scala,Apache Spark,Apache Spark Sql,Rdd,我可以将Spark数据帧作为自定义对象读取,如下所示: spark.read.csv("path/to/file").as[Gizmo] 但是如何将单个Spark行对象转换为其等效的case类呢?(如果您担心我为什么要这样做,请咨询。)显然Spark知道如何做到这一点,但我看不到任何直接的方法来实现它(除了将行转换为长度为1的RDD,然后再转换回来) 您是否尝试过row.asInstanceOf[Gizmo]?@philantrover-I getjava.lang.ClassCastExce

我可以将Spark数据帧作为自定义对象读取,如下所示:

spark.read.csv("path/to/file").as[Gizmo]
但是如何将单个Spark
对象转换为其等效的case类呢?(如果您担心我为什么要这样做,请咨询。)显然Spark知道如何做到这一点,但我看不到任何直接的方法来实现它(除了将
转换为长度为1的RDD,然后再转换回来)


您是否尝试过
row.asInstanceOf[Gizmo]
?@philantrover-I get
java.lang.ClassCastException:org.apache.spark.sql.catalyst.expressions.GenericRowWithSchema无法强制转换为Gizmo
。然后您可以进行模式匹配:
val x=a匹配{case row(a:String,b:Int)=>Gizmo(a,b)
row.as[Gizmo] // doesn't work. What goes here?