Hadoop 如何将SQL中的百分位_盘转换为Spark SQL
在工作中,我们正在从Teradata转移到Spark SQL(Hadoop集群),因此我需要转换我的许多脚本 这是我的原始SQL脚本,我正在尝试获取cust的第60个百分位。我们拥有的每个呼叫中心团队的满意度评分(即前40%的表现)。我在网上尝试过各种版本,但无法正常工作:Hadoop 如何将SQL中的百分位_盘转换为Spark SQL,hadoop,apache-spark-sql,percentile,percentile-cont,Hadoop,Apache Spark Sql,Percentile,Percentile Cont,在工作中,我们正在从Teradata转移到Spark SQL(Hadoop集群),因此我需要转换我的许多脚本 这是我的原始SQL脚本,我正在尝试获取cust的第60个百分位。我们拥有的每个呼叫中心团队的满意度评分(即前40%的表现)。我在网上尝试过各种版本,但无法正常工作: ***SELECT BSE.staffgrouplevel ,BSE.Sub_Region ,BSE.staffgroup
***SELECT BSE.staffgrouplevel
,BSE.Sub_Region
,BSE.staffgroup
,Percentile_Disc(0.6) Within GROUP (ORDER BY BSE.CSAT ASC) AS CSAT_pct_q60
FROM P_IntegratedAnalytics_T.Q121_BPL_EmpTgtRawData3 BSE
INNER JOIN P_IntegratedAnalytics_T.Q121_60th_TOP_SCORE_FROM_PARTNER3 BSE2
ON BSE.STAFFGROUP = BSE2.STAFFGROUP
AND BSE.COMPANY = BSE2.COMPANY
AND BSE.CSAT_Sg_Comp_60 = BSE2.CSAT_Sg_Comp_60
WHERE BSE2.CSAT_Sg_Comp_60 = BSE2.Top_CSAT_Sg_Comp_60
AND BSE.CSATDen>=10
GROUP BY 1,2,3***
关于我应该在这里使用什么,有什么建议吗