Pyspark,TypeError:';列';对象不可调用

Pyspark,TypeError:';列';对象不可调用,pyspark,pyspark-sql,Pyspark,Pyspark Sql,执行以下操作时,如何打印列的内容? 我正试图打印出abcd列的内容,在正常df中,我可以执行df.show() 但是如何显示列对象呢 >>> df = spark.createDataFrame([ ... ('a', 1.0, 1.0), ('a',1.0, 0.2), ('b', 1.0, 1.0), ... ('c' ,1.0, 0.5), ('d', 0.55, 1.0),('e', 1.0, 1.0) ... ]) >>> df.sh

执行以下操作时,如何打印列的内容? 我正试图打印出
abcd
列的内容,在正常df中,我可以执行
df.show()

但是如何显示列对象呢

>>> df = spark.createDataFrame([
...     ('a', 1.0, 1.0), ('a',1.0, 0.2), ('b', 1.0, 1.0),
...     ('c' ,1.0, 0.5), ('d', 0.55, 1.0),('e', 1.0, 1.0)
... ])
>>> df.show()
+---+----+---+                                                                  
| _1|  _2| _3|
+---+----+---+
|  a| 1.0|1.0|
|  a| 1.0|0.2|
|  b| 1.0|1.0|
|  c| 1.0|0.5|
|  d|0.55|1.0|
|  e| 1.0|1.0|
+---+----+---+

>>> abcd = spark_sum(
...     when(
...         spark_abs(
...             df['_2'] -
...             df['_3']
...         ) < 0.05,
...         "odt"
...     ).otherwise(0)
... ).alias(
...     'yo,man'
... )
df=spark.createDataFrame([ …('a',1.0,1.0),('a',1.0,0.2),('b',1.0,1.0), …('c',1.0,0.5),('d',0.55,1.0),('e',1.0,1.0) ... ]) >>>df.show() +---+----+---+ | _1| _2| _3| +---+----+---+ |a | 1.0 | 1.0| |a | 1.0 | 0.2| |b | 1.0 | 1.0| |c | 1.0 | 0.5| |d | 0.55 | 1.0| |e | 1.0 | 1.0| +---+----+---+ >>>abcd=火花和( …什么时候( …火花abs( …df[''u 2']- …df[“u 3”] ... ) < 0.05, …“odt” …)。否则(0) …)。别名( “哟,伙计” ... ) 如何打印abcd的内容? abcd 纵队 如何打印abcd的内容

很简单。选择并显示:

df.select(abcd).show()
df.select(abcd).show()