Python 如何在pyspark中使用foldleft?

Python 如何在pyspark中使用foldleft?,python,apache-spark,pyspark,pyspark-sql,pyspark-dataframes,Python,Apache Spark,Pyspark,Pyspark Sql,Pyspark Dataframes,我有一个列表中的列列表,需要添加withcolumn,就像我们在scala中所做的一样,如下所示: list.foldLeft(df){(tempDF, listValue) => tempDF.withColumn(listValue._1, listValue._2) } 让我澄清这个问题。我有一个带有数组类型结构的数据框架,我需要使用explode展平每个数组,例如:df.withcolumn(col1,explode(col1)),如果需要创建一个通用函数一次性传递所有列,你怎么

我有一个列表中的列列表,需要添加withcolumn,就像我们在scala中所做的一样,如下所示:

list.foldLeft(df){(tempDF, listValue) => tempDF.withColumn(listValue._1, listValue._2) }
让我澄清这个问题。我有一个带有数组类型结构的数据框架,我需要使用explode展平每个数组,例如:df.withcolumn(col1,explode(col1)),如果需要创建一个通用函数一次性传递所有列,你怎么做?如果我使用for循环,则每个explode语句的数据都会加倍


您如何在
pyspark
中执行此操作?

这是否回答了您的问题?既然我找到了这个答案,我就删除了我的。让我们澄清一下这个问题:我有一个数组类型结构的数据框架,我需要使用explode来展平每个数组,例如:df.withcolumn(col1,explode(col1)),如果需要创建一个通用函数一次性传递所有列,你怎么做?如果我使用for循环,则每个explode语句的数据都会翻倍。如果没有最小的可复制示例(包括预期输出),很难帮助您。在不知道更多的情况下,你可以考虑在爆炸之前加入所有的数组。