Pyspark 在Cassandra中查找使用Spark aggregate和group by的示例/样本

Pyspark 在Cassandra中查找使用Spark aggregate和group by的示例/样本,pyspark,apache-spark-sql,cassandra-2.1,Pyspark,Apache Spark Sql,Cassandra 2.1,我想使用类似于Oracle SQL的Spark Python(从Cassandra提取数据)运行以下查询: select name, value, count(*) from table_name order by name, value group by name.... 任何示例/样本都会有所帮助,谢谢 使用Scala val results = sqlContext.sql( "select name, value, count(*) from table group by n

我想使用类似于Oracle SQL的Spark Python(从Cassandra提取数据)运行以下查询:

select name, value, count(*) from table_name order by name, value 
group by name....
任何示例/样本都会有所帮助,谢谢

使用Scala

val results = sqlContext.sql(
    "select name, value, count(*) from table group by name, value"
)