Sql server 如何在sparksql中执行“selecttop1xfromtable”语句
我在pyspark中转换spark sql中的bellow查询时遇到问题 SQL server查询不可用Sql server 如何在sparksql中执行“selecttop1xfromtable”语句,sql-server,apache-spark,apache-spark-sql,pyspark-sql,Sql Server,Apache Spark,Apache Spark Sql,Pyspark Sql,我在pyspark中转换spark sql中的bellow查询时遇到问题 SQL server查询不可用 coalesce((Select top 1 f2.ChargeAmt from Fact_CMCharges f2 where f2.BldgID = f.BldgID and f2.LeaseID = f.LeaseID and f2.IncomeCat = f.IncomeCat and f2.Period < f
coalesce((Select top 1 f2.ChargeAmt from Fact_CMCharges f2
where f2.BldgID = f.BldgID
and f2.LeaseID = f.LeaseID
and f2.IncomeCat = f.IncomeCat
and f2.Period < f.Period
and f2.ActualProjected = 'Lease'
order by f2.Period desc),0) as Charge
我在PySparkSQL中没有找到替换top关键字的方法。请帮帮我
既然你说的是spark sql,那么我如何在py spark sql中转换这个查询呢
df.limit(1).show()
我不熟悉sql server。你能解释一下它的功能和文档的链接参考吗?正如我所理解的,“top”在MYSQL中就像limit关键字一样。在这里,这个命令实际上从where子句中给定的条件中选取前1行。如果它为true或返回0,则coalesce语句将执行该语句。您能否给出一个输入数据和预期输出的示例,因为它仍然不是很清楚。此链接显示sql server“顶级语句”示例感谢您的回复。虽然我并没有尝试数据帧方法,但我确实在sql查询的末尾编写了限制1。我收到了以下错误消息pyspark.sql.utils.AnalysisException:必须聚合u'相关标量子查询:GlobalLimit 1\n+-LocalLimit 1\n