Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 使用com.databricks.spark.csv格式时如何指定下线字符?_Python_Apache Spark_Pyspark - Fatal编程技术网

Python 使用com.databricks.spark.csv格式时如何指定下线字符?

Python 使用com.databricks.spark.csv格式时如何指定下线字符?,python,apache-spark,pyspark,Python,Apache Spark,Pyspark,我使用PySpark中的数据源将一组Gzip CSV写入HDFS,如下所示: dataframe.write\ .mode('overwrite')\ .format('com.databricks.spark.csv')\ .options(codec='org.apache.hadoop.io.compress.GzipCodec', header=True)\ .save('...path...') 但是,这些文件是使用Unix EOL字符创建的,而最终使用这些文件的进程需要DOS样式

我使用PySpark中的数据源将一组Gzip CSV写入HDFS,如下所示:

dataframe.write\
.mode('overwrite')\
.format('com.databricks.spark.csv')\
.options(codec='org.apache.hadoop.io.compress.GzipCodec', header=True)\
.save('...path...')
但是,这些文件是使用Unix EOL字符创建的,而最终使用这些文件的进程需要DOS样式

有没有办法确保文件是用我想要的EOL字符创建的