Apache spark pyspark在每行打印一个项目

Apache spark pyspark在每行打印一个项目,apache-spark,pyspark,Apache Spark,Pyspark,在Pyspark中,当我尝试打印列表时,所有元素都打印在同一行中: >>> wordslist = words.collect(); >>> wordslist [(u'crazy', 1), (u'fox', 1), (u'jumped', 1)] 是否有任何方法可以让输出每行打印一项,如下所示: >>> wordslist [ (u'crazy', 1), (u'fox', 1), (u'jumped', 1) ] 这是基本的pyth

在Pyspark中,当我尝试打印列表时,所有元素都打印在同一行中:

>>> wordslist = words.collect();
>>> wordslist
[(u'crazy', 1), (u'fox', 1), (u'jumped', 1)]
是否有任何方法可以让输出每行打印一项,如下所示:

>>> wordslist
[
(u'crazy', 1),
(u'fox', 1),
(u'jumped', 1)
]

这是基本的python。从RDD收集结果时。您将获得一个列表,可以对其进行迭代,并以您希望的格式打印每个元素

我认为关于如何打印列表的问题在这么多年来已经被回答了很多次

这是一个例子

$> mylist = myrdd.collect()
$> for elem in mylist:
$>     print elem 

您还需要检查pyspark

这是基本的python。从RDD收集结果时。您将获得一个列表,可以对其进行迭代,并以您希望的格式打印每个元素

我认为关于如何打印列表的问题在这么多年来已经被回答了很多次

这是一个例子

$> mylist = myrdd.collect()
$> for elem in mylist:
$>     print elem 

您还需要检查pyspark

使用Scala中的
foreach
也可以实现同样的效果

mylist.foreach(println)

使用Scala中的
foreach
也可以实现同样的效果

mylist.foreach(println)