Apache spark 这个Pypark专栏的详细内容是什么?
在试图理解PySpark构造此代码时:Apache spark 这个Pypark专栏的详细内容是什么?,apache-spark,pyspark,Apache Spark,Pyspark,在试图理解PySpark构造此代码时: from pyspark.sql.functions struct import pyspark.sql.functions as F F.struct(lit(10).alias("column") , "TEST").desc() 创建具有以下值的列: Column<struct(10 AS `columnee`, TEST) DESC> 创建: Column<struct(10 AS `column`, TEST)>
from pyspark.sql.functions struct
import pyspark.sql.functions as F
F.struct(lit(10).alias("column") , "TEST").desc()
创建具有以下值的列:
Column<struct(10 AS `columnee`, TEST) DESC>
创建:
Column<struct(10 AS `column`, TEST)>
列
因此
DESC
现在被删除。当评估列时,DESC
是否作为要评估的函数添加?您能否分享可复制的示例?你想做什么?@mtoto我已经用import语句更新了这个问题,但我只是想为F.struct(lit(10).alias(“column”),“TEST”).desc()找到更详细的解释,因为我发现PySpark API有点神秘
Column<struct(10 AS `column`, TEST)>