pyspark:如何在dataframe中选择两个查询
我在pyspark中构建了一个数据帧,现在我想选择两列的值。我该怎么做 我试过这个:pyspark:如何在dataframe中选择两个查询,pyspark,pyspark-sql,Pyspark,Pyspark Sql,我在pyspark中构建了一个数据帧,现在我想选择两列的值。我该怎么做 我试过这个: df.where((df['E'] ==0 ).where(df['C']=='non')) 感谢您为此使用&(and)逻辑运算符: df.where((df['E'] == 0) & (df['C'] == 'non')) 您可以直接使用sql语法: df.where("E=0 and C='non'") 您可以选择在何处或筛选- df.where((df.E == 0) & (df.C
df.where((df['E'] ==0 ).where(df['C']=='non'))
感谢您为此使用&
(and)逻辑运算符:
df.where((df['E'] == 0) & (df['C'] == 'non'))
您可以直接使用sql语法:
df.where("E=0 and C='non'")
您可以选择在何处或筛选-
df.where((df.E == 0) & (df.C == 'non'))
##OR
df.filter((df.E == 0) & (df.C == 'non'))
您错误地放置了括号:
df.where(df['E']==0)。where(df['C']='non')
谢谢,在类似sql的查询中,这与什么等效?可能是df.registerTempable('temp');spark.sql(“从temp中选择*,其中E=0和C='non'”)
。