pyspark:如何在dataframe中选择两个查询

pyspark:如何在dataframe中选择两个查询,pyspark,pyspark-sql,Pyspark,Pyspark Sql,我在pyspark中构建了一个数据帧,现在我想选择两列的值。我该怎么做 我试过这个: df.where((df['E'] ==0 ).where(df['C']=='non')) 感谢您为此使用&(and)逻辑运算符: df.where((df['E'] == 0) & (df['C'] == 'non')) 您可以直接使用sql语法: df.where("E=0 and C='non'") 您可以选择在何处或筛选- df.where((df.E == 0) & (df.C

我在pyspark中构建了一个数据帧,现在我想选择两列的值。我该怎么做

我试过这个:

df.where((df['E'] ==0 ).where(df['C']=='non'))
感谢您为此使用
&
(and)逻辑运算符:

df.where((df['E'] == 0) & (df['C'] == 'non'))

您可以直接使用sql语法:

df.where("E=0 and C='non'")

您可以选择在何处或筛选-

df.where((df.E == 0) & (df.C == 'non'))

##OR

df.filter((df.E == 0) & (df.C == 'non'))

您错误地放置了括号:
df.where(df['E']==0)。where(df['C']='non')
谢谢,在类似sql的查询中,这与什么等效?可能是
df.registerTempable('temp');spark.sql(“从temp中选择*,其中E=0和C='non'”)