Python 如何使用pyspark将数据帧中无标题的行放入列表

Python 如何使用pyspark将数据帧中无标题的行放入列表,python,dataframe,multidimensional-array,pyspark,Python,Dataframe,Multidimensional Array,Pyspark,我从CSV文件中获取此数据,我需要将此数据发送到服务器。但我只需要这个列表中的值 {1: Row(Moid=1, Tripid='1', Tstart='2007-05-27', Tend='2007-05-27 08:36:47.846', Xstart='12785', Ystart='1308', Xend='12785', Yend='1308'), 2: Row(Moid=2, Tripid='10', Tstart='2007-05-27', Tend='2007-05-28 08:

我从CSV文件中获取此数据,我需要将此数据发送到服务器。但我只需要这个列表中的值

{1: Row(Moid=1, Tripid='1', Tstart='2007-05-27', Tend='2007-05-27 08:36:47.846', Xstart='12785', Ystart='1308', Xend='12785', Yend='1308'), 2: Row(Moid=2, Tripid='10', Tstart='2007-05-27', Tend='2007-05-28 08:52:53.673', Xstart='9716', Ystart='-55', Xend='9716', Yend='-55')}
我想要这个

{ (1,  1, 2007-05-27, 2007-05-2708:36:47.846 , 12785, 1308, 12785, 1308)
  (2, 10, 2007-05-27, 2007-05-2808:52:53.673 ,  9716,  -55,  9716,  -55)

可以使用rdd和映射函数将行转换为元组。 我刚刚使用了前3个值作为示例实现:

df=spark.createDataFrame([(1,“1”,“2007-05-27”),(2,“10”,“2007-05-27”),[“moid”,“tripid”,“tstart”])
打印df.rdd.map(lambdar:tuple(r)).collect()
输出将是元组列表:

[(1,u'1',u'2007-05-27'),(2,u'10',u'2007-05-27')]