Pyspark,TypeError:';列';对象不可调用
执行以下操作时,如何打印列的内容? 我正试图打印出Pyspark,TypeError:';列';对象不可调用,pyspark,pyspark-sql,Pyspark,Pyspark Sql,执行以下操作时,如何打印列的内容? 我正试图打印出abcd列的内容,在正常df中,我可以执行df.show() 但是如何显示列对象呢 >>> df = spark.createDataFrame([ ... ('a', 1.0, 1.0), ('a',1.0, 0.2), ('b', 1.0, 1.0), ... ('c' ,1.0, 0.5), ('d', 0.55, 1.0),('e', 1.0, 1.0) ... ]) >>> df.sh
abcd
列的内容,在正常df中,我可以执行df.show()
但是如何显示列对象呢
>>> df = spark.createDataFrame([
... ('a', 1.0, 1.0), ('a',1.0, 0.2), ('b', 1.0, 1.0),
... ('c' ,1.0, 0.5), ('d', 0.55, 1.0),('e', 1.0, 1.0)
... ])
>>> df.show()
+---+----+---+
| _1| _2| _3|
+---+----+---+
| a| 1.0|1.0|
| a| 1.0|0.2|
| b| 1.0|1.0|
| c| 1.0|0.5|
| d|0.55|1.0|
| e| 1.0|1.0|
+---+----+---+
>>> abcd = spark_sum(
... when(
... spark_abs(
... df['_2'] -
... df['_3']
... ) < 0.05,
... "odt"
... ).otherwise(0)
... ).alias(
... 'yo,man'
... )
df=spark.createDataFrame([
…('a',1.0,1.0),('a',1.0,0.2),('b',1.0,1.0),
…('c',1.0,0.5),('d',0.55,1.0),('e',1.0,1.0)
... ])
>>>df.show()
+---+----+---+
| _1| _2| _3|
+---+----+---+
|a | 1.0 | 1.0|
|a | 1.0 | 0.2|
|b | 1.0 | 1.0|
|c | 1.0 | 0.5|
|d | 0.55 | 1.0|
|e | 1.0 | 1.0|
+---+----+---+
>>>abcd=火花和(
…什么时候(
…火花abs(
…df[''u 2']-
…df[“u 3”]
... ) < 0.05,
…“odt”
…)。否则(0)
…)。别名(
“哟,伙计”
... )
如何打印abcd的内容?
abcd
纵队
如何打印abcd的内容
很简单。选择并显示:
df.select(abcd).show()
df.select(abcd).show()