Apache spark 获得spark数据帧计数的最佳方法是什么

Apache spark 获得spark数据帧计数的最佳方法是什么,apache-spark,spark-dataframe,Apache Spark,Spark Dataframe,获得spark数据帧计数的最佳方法是什么 1) 我已尝试计数,它将添加一个操作。但我不想添加额外的操作 2) 我在RDD上使用了累加器,要做到这一点,数据帧需要转换为RDD,即使累加器也不准确 我想知道spark是否足够成熟,它没有其他方式。我认为一定有某种方法可以在不影响性能/运行时的情况下获得计数。我认为除了累加器之外,没有其他方法可以不添加操作。要使用累加器,需要将其转换为rdd

获得spark数据帧计数的最佳方法是什么

1) 我已尝试计数,它将添加一个操作。但我不想添加额外的操作

2) 我在RDD上使用了累加器,要做到这一点,数据帧需要转换为RDD,即使累加器也不准确


我想知道spark是否足够成熟,它没有其他方式。我认为一定有某种方法可以在不影响性能/运行时的情况下获得计数。

我认为除了累加器之外,没有其他方法可以不添加操作。要使用累加器,需要将其转换为rdd