Apache spark Spark-如何按索引使用Spark分区

Apache spark Spark-如何按索引使用Spark分区,apache-spark,Apache Spark,有没有一种方法可以基于索引计数使用分区 我可以使用以下API找到Spark分区的总数 rdd.partitions.size 目前,分区使用的是rdd.forEachPartition,但是有没有办法按索引使用分区?查看spark rdd。这也应该是有用的

有没有一种方法可以基于索引计数使用分区

我可以使用以下API找到Spark分区的总数

rdd.partitions.size
目前,分区使用的是
rdd.forEachPartition
,但是有没有办法按索引使用分区?

查看spark rdd。这也应该是有用的