Hadoop 如何将SQL中的百分位_盘转换为Spark SQL

Hadoop 如何将SQL中的百分位_盘转换为Spark SQL,hadoop,apache-spark-sql,percentile,percentile-cont,Hadoop,Apache Spark Sql,Percentile,Percentile Cont,在工作中,我们正在从Teradata转移到Spark SQL(Hadoop集群),因此我需要转换我的许多脚本 这是我的原始SQL脚本,我正在尝试获取cust的第60个百分位。我们拥有的每个呼叫中心团队的满意度评分(即前40%的表现)。我在网上尝试过各种版本,但无法正常工作: ***SELECT BSE.staffgrouplevel ,BSE.Sub_Region ,BSE.staffgroup

在工作中,我们正在从Teradata转移到Spark SQL(Hadoop集群),因此我需要转换我的许多脚本

这是我的原始SQL脚本,我正在尝试获取cust的第60个百分位。我们拥有的每个呼叫中心团队的满意度评分(即前40%的表现)。我在网上尝试过各种版本,但无法正常工作:

***SELECT       BSE.staffgrouplevel                     
            ,BSE.Sub_Region
            ,BSE.staffgroup
            ,Percentile_Disc(0.6) Within GROUP (ORDER BY BSE.CSAT ASC) AS CSAT_pct_q60
                    
FROM        P_IntegratedAnalytics_T.Q121_BPL_EmpTgtRawData3         BSE
INNER JOIN  P_IntegratedAnalytics_T.Q121_60th_TOP_SCORE_FROM_PARTNER3       BSE2
ON          BSE.STAFFGROUP = BSE2.STAFFGROUP
AND         BSE.COMPANY = BSE2.COMPANY
AND         BSE.CSAT_Sg_Comp_60 = BSE2.CSAT_Sg_Comp_60
WHERE       BSE2.CSAT_Sg_Comp_60 = BSE2.Top_CSAT_Sg_Comp_60
AND         BSE.CSATDen>=10
GROUP BY    1,2,3***
关于我应该在这里使用什么,有什么建议吗