Python 使用com.databricks.spark.csv格式时如何指定下线字符?
我使用PySpark中的数据源将一组Gzip CSV写入HDFS,如下所示:Python 使用com.databricks.spark.csv格式时如何指定下线字符?,python,apache-spark,pyspark,Python,Apache Spark,Pyspark,我使用PySpark中的数据源将一组Gzip CSV写入HDFS,如下所示: dataframe.write\ .mode('overwrite')\ .format('com.databricks.spark.csv')\ .options(codec='org.apache.hadoop.io.compress.GzipCodec', header=True)\ .save('...path...') 但是,这些文件是使用Unix EOL字符创建的,而最终使用这些文件的进程需要DOS样式
dataframe.write\
.mode('overwrite')\
.format('com.databricks.spark.csv')\
.options(codec='org.apache.hadoop.io.compress.GzipCodec', header=True)\
.save('...path...')
但是,这些文件是使用Unix EOL字符创建的,而最终使用这些文件的进程需要DOS样式
有没有办法确保文件是用我想要的EOL字符创建的