如何在pyspark中为Dataframe定义分区?

如何在pyspark中为Dataframe定义分区?,dataframe,pyspark,data-partitioning,apache-spark-1.6,Dataframe,Pyspark,Data Partitioning,Apache Spark 1.6,假设我在pyspark中读取一个拼花地板文件作为数据帧,我如何指定它必须有多少个分区 我像这样读拼花地板文件- df = sqlContext.read.format('parquet').load('/path/to/file') 如何指定要使用的分区数?可能重复的@user9613318不是关于分区大小的重复。

假设我在pyspark中读取一个拼花地板文件作为数据帧,我如何指定它必须有多少个分区

我像这样读拼花地板文件-

df = sqlContext.read.format('parquet').load('/path/to/file')

如何指定要使用的分区数?

可能重复的@user9613318不是关于分区大小的重复。