Apache spark SQL递归可以在Spark SQL、pyspark中使用吗?

Apache spark SQL递归可以在Spark SQL、pyspark中使用吗?,apache-spark,pyspark,apache-spark-sql,Apache Spark,Pyspark,Apache Spark Sql,我们可以在Spark SQL中使用递归公共表表达式(CTE)并在pyspark中进行递归吗 如果没有,我们是否有办法在 Spark的分布式存储环境?我知道一个递归实现解决方案,但它使用的是Scala,这在我的项目中没有使用。根据官方文件,它将在spark 3中提供,这是否回答了您的问题?谢谢,史蒂文。这帮助我不再不耐烦地在Spark中寻找答案。谢谢,@Blackishop。现在我想知道,在Spark的帮助下,使用Python可以实现哪些递归实现。为了利用Spark,我想将输入数据更改为Panda

我们可以在Spark SQL中使用递归公共表表达式(CTE)并在pyspark中进行递归吗

如果没有,我们是否有办法在
Spark的分布式存储环境?我知道一个递归实现解决方案,但它使用的是Scala,这在我的项目中没有使用。

根据官方文件,它将在spark 3中提供,这是否回答了您的问题?谢谢,史蒂文。这帮助我不再不耐烦地在Spark中寻找答案。谢谢,@Blackishop。现在我想知道,在Spark的帮助下,使用Python可以实现哪些递归实现。为了利用Spark,我想将输入数据更改为PandasDF,将其划分为多个组。然后在workers的每个组上使用递归。最后合并PandaSDF并将其转换为SparkDF。但我不确定这是否有效。