Python Pyspark sqlContext执行子查询错误,有限制

Python Pyspark sqlContext执行子查询错误,有限制,python,sql,apache-spark,dataframe,pyspark,Python,Sql,Apache Spark,Dataframe,Pyspark,我得到一个错误: AnalysisException:必须聚合u'相关标量子查询:GlobalLimit 1\n+-LocalLimit 1\n+-Aggregate[email#967],[max(lastdateupdate#189)作为max(lastdateupdate) 在一个基于数据框架的诱人环境中使用SQL df.registerTempTable('test') 这一点很有效: sqlContext.sql('select * from test t where lastdat

我得到一个错误:

AnalysisException:必须聚合u'相关标量子查询:GlobalLimit 1\n+-LocalLimit 1\n+-Aggregate[email#967],[max(lastdateupdate#189)作为max(lastdateupdate)

在一个基于数据框架的诱人环境中使用SQL

df.registerTempTable('test')
这一点很有效:

sqlContext.sql('select * from test t where lastdateupdate=(select max(lastdateupdate) from test u limit 1)')
但有了这个,我得到了错误信息:

sqlContext.sql('select * from test t where lastdateupdate=(select max(lastdateupdate) from test u where u.email=t.email limit 1)')
我不明白为什么