Apache spark 既然SparkSQL可以使用cassandra连接器,pyspark cassandra是干什么的?

Apache spark 既然SparkSQL可以使用cassandra连接器,pyspark cassandra是干什么的?,apache-spark,Apache Spark,是否有我遗漏的东西,或者所有功能现在都可以直接使用 似乎可以在JVM中将SparkSQL连接到Cassandra,然后从Python使用它,没有将所有内容都转移到Python。我在MongoDB中遇到了类似的情况,现在我开始将代码库迁移到使用SparkSQL。一般来说,CassandraRDD/RDDAPI提供了细粒度的控制和一些无法用DataFrameAPI表达的功能。

是否有我遗漏的东西,或者所有功能现在都可以直接使用


似乎可以在JVM中将SparkSQL连接到Cassandra,然后从Python使用它,没有将所有内容都转移到Python。

我在MongoDB中遇到了类似的情况,现在我开始将代码库迁移到使用SparkSQL。一般来说,
CassandraRDD
/RDDAPI提供了细粒度的控制和一些无法用
DataFrame
API表达的功能。