Apache spark pyspark在每行打印一个项目
在Pyspark中,当我尝试打印列表时,所有元素都打印在同一行中:Apache spark pyspark在每行打印一个项目,apache-spark,pyspark,Apache Spark,Pyspark,在Pyspark中,当我尝试打印列表时,所有元素都打印在同一行中: >>> wordslist = words.collect(); >>> wordslist [(u'crazy', 1), (u'fox', 1), (u'jumped', 1)] 是否有任何方法可以让输出每行打印一项,如下所示: >>> wordslist [ (u'crazy', 1), (u'fox', 1), (u'jumped', 1) ] 这是基本的pyth
>>> wordslist = words.collect();
>>> wordslist
[(u'crazy', 1), (u'fox', 1), (u'jumped', 1)]
是否有任何方法可以让输出每行打印一项,如下所示:
>>> wordslist
[
(u'crazy', 1),
(u'fox', 1),
(u'jumped', 1)
]
这是基本的python。从RDD收集结果时。您将获得一个列表,可以对其进行迭代,并以您希望的格式打印每个元素 我认为关于如何打印列表的问题在这么多年来已经被回答了很多次 这是一个例子
$> mylist = myrdd.collect()
$> for elem in mylist:
$> print elem
您还需要检查pyspark 这是基本的python。从RDD收集结果时。您将获得一个列表,可以对其进行迭代,并以您希望的格式打印每个元素 我认为关于如何打印列表的问题在这么多年来已经被回答了很多次 这是一个例子
$> mylist = myrdd.collect()
$> for elem in mylist:
$> print elem
您还需要检查pyspark 使用Scala中的
foreach
也可以实现同样的效果
mylist.foreach(println)
使用Scala中的foreach
也可以实现同样的效果
mylist.foreach(println)