从PySpark RDD还原返回元组

从PySpark RDD还原返回元组,pyspark,rdd,reduce,Pyspark,Rdd,Reduce,上面的代码返回以下输出。但我期望的是一个值,即总和 data = data.withColumn('n', F.lit(10)) result = data.select('n').rdd.reduce(lambda x, y: x + y) print(result) 不能直接添加行对象,请在reduce:data之前尝试map。选择('n').rdd.map(lambda x:x.n)。reduce(lambda x,y:x+y)使用print(结果[1])首先map或flatmap然后r

上面的代码返回以下输出。但我期望的是一个值,即总和

data = data.withColumn('n', F.lit(10))
result = data.select('n').rdd.reduce(lambda x, y: x + y)
print(result)

不能直接添加行对象,请在reduce:data之前尝试map。选择('n').rdd.map(lambda x:x.n)。reduce(lambda x,y:x+y)使用
print(结果[1])
首先
map
flatmap
然后
reduce
output:
(10,
 10,
 10,
 10,
 10,
 10,
 10,
 10,.....)