Python Pypark使用列表计算整列的平均值

Python Pypark使用列表计算整列的平均值,python,apache-spark,pyspark,apache-spark-sql,Python,Apache Spark,Pyspark,Apache Spark Sql,我有一个pyspark数据框,其中包含如下列表: | value | |:---- | | ["1", "23", "18", "9"] | | ["62", "47", "6"] | |["34", "61", "5&

我有一个pyspark数据框,其中包含如下列表:

| value                   | 
|:----                    |
| ["1", "23", "18", "9"]  |
| ["62", "47", "6"]       |
|["34", "61", "5"].       |

有没有办法用pyspark计算总体平均值?因此,我希望得到以下值:26.6分解列表并对整个列进行平均:

mean = df.select(
    F.explode('value').alias('value')
).select(
    F.avg(F.col('value').cast('int'))
).head()[0]