Apache spark apache spark sql-实现百分位函数
我正在使用cassandra+spark+spark sql。我没有用蜂箱。 我想创建我的自定义聚合函数,如:Apache spark apache spark sql-实现百分位函数,apache-spark,apache-spark-sql,Apache Spark,Apache Spark Sql,我正在使用cassandra+spark+spark sql。我没有用蜂箱。 我想创建我的自定义聚合函数,如: select percentile(column, 0.95) from cassandra_table spark sql支持avg()、min()等:我想实现其他功能,如percentile,但我找不到相关文档 有人能给我指一下什么文档或类吗 谢谢 这可能会有所帮助:@rchukh没有那么多。使用Spark UDAF无法有效实现百分位函数。我会简单地使用蜂巢UDF:(并且只是为了
select percentile(column, 0.95) from cassandra_table
spark sql支持avg()、min()等:我想实现其他功能,如percentile,但我找不到相关文档
有人能给我指一下什么文档或类吗
谢谢 这可能会有所帮助:@rchukh没有那么多。使用Spark UDAF无法有效实现百分位函数。我会简单地使用蜂巢UDF:(并且只是为了澄清蜂巢UDF不是蜂巢特定的)。