Amazon s3 Pyspark写入S3会写入特殊字符

Amazon s3 Pyspark写入S3会写入特殊字符,amazon-s3,pyspark,apache-spark-sql,Amazon S3,Pyspark,Apache Spark Sql,我正在使用以下代码以.csv格式编写一个DF到S3的代码:DF.coalesce(1).write.csv('S3://path_to_S3/abc.csv',header=True,mode='overwrite')。当我从S3下载并打开这个文件时,我只看到其中的特殊字符,如·T]~xE|ña¥9ÿNÿ3×&>xE 4。 这是因为它是用拼花格式写的吗?有没有一种方法可以让我用正确的文本来写它,下载这个文件并使用它 感谢您的帮助

我正在使用以下代码以.csv格式编写一个DF到S3的代码:
DF.coalesce(1).write.csv('S3://path_to_S3/abc.csv',header=True,mode='overwrite')
。当我从S3下载并打开这个文件时,我只看到其中的特殊字符,如
·T]~xE|ña¥9ÿNÿ3×&>xE 4
。 这是因为它是用拼花格式写的吗?有没有一种方法可以让我用正确的文本来写它,下载这个文件并使用它

感谢您的帮助