Python Pyspark在计算一列上的偏斜时不显示任何内容

Python Pyspark在计算一列上的偏斜时不显示任何内容,python,pandas,pyspark,pyspark-sql,Python,Pandas,Pyspark,Pyspark Sql,我无法在带有显示功能的pyspark dataframe中看到聚合函数的结果。我一次只计算一列的偏度 from pyspark.sql import functions as f val1 = [(20,100),(100,100),(50,100),(0,100),(0,100),(0,0),(0,50),(0,100),(0,20)] cols = ['val1','val2'] tf = spark.createDataFrame(val1, cols) display(tf.selec

我无法在带有显示功能的pyspark dataframe中看到聚合函数的结果。我一次只计算一列的偏度

from pyspark.sql import functions as f

val1 = [(20,100),(100,100),(50,100),(0,100),(0,100),(0,0),(0,50),(0,100),(0,20)]
cols = ['val1','val2']
tf = spark.createDataFrame(val1, cols)
display(tf.select(f.skewness(tf['val1']),f.skewness(tf['val2'])))
它给我以下输出

DataFrame[skewness(val1): double, skewness(val2): double]
我知道,因为它是我可以使用的聚合函数

tf.agg(f.skewness('val1')).show()

但我想使用显示功能,但它是空的。有什么线索吗?

你在哪里运行这段代码?Jupyter记事本即使使用你的代码,通过显示功能本身,我也能看到输出。我在databricks云中的同一台Jupyter笔记本上运行。你在哪里运行此代码?Jupyter笔记本即使使用你的代码,通过显示功能本身,我也能看到输出。我在databricks云中的同一个Jupyter笔记本上运行。