Apache spark 如何在执行者之间均匀分布数据
我使用dfs中的Apache spark 如何在执行者之间均匀分布数据,apache-spark,pyspark,apache-spark-sql,Apache Spark,Pyspark,Apache Spark Sql,我使用dfs中的read.parquet()从拼花文件中读取数据帧并将其缓存。但是,我如何在遗嘱执行人之间平均分配 RDD.collect() 我使用Cloudera集群,只要它有用就添加。从Parquet RDD收集数据,并使用广播变量使其可在执行器中访问 RDD.collect()
read.parquet()
从拼花文件中读取数据帧并将其缓存。但是,我如何在遗嘱执行人之间平均分配
RDD.collect()
我使用Cloudera集群,只要它有用就添加。从Parquet RDD收集数据,并使用广播变量使其可在执行器中访问
RDD.collect()