Pyspark:将数据帧保存为csv文件时对汉字进行编码

Pyspark:将数据帧保存为csv文件时对汉字进行编码,csv,encoding,pyspark,unicode-string,Csv,Encoding,Pyspark,Unicode String,我尝试使用以下方法保存包含中文字母的列的数据框: df.coalesce(1).write.option(“header”,“true”).csv(r'path\…\file.csv')) 但是输出包含奇怪的字符,而不是中文字母。请尝试用UTF-8编码,并确保使用适当的编码读取文本文件: df.coalesce(1).write.option(“header”,“true”).option(“encoding”,“UTF-8”).csv(r'path\..\file.csv')) 尝试用UTF

我尝试使用以下方法保存包含中文字母的列的数据框:

df.coalesce(1).write.option(“header”,“true”).csv(r'path\…\file.csv'))

但是输出包含奇怪的字符,而不是中文字母。

请尝试用UTF-8编码,并确保使用适当的编码读取文本文件:

df.coalesce(1).write.option(“header”,“true”).option(“encoding”,“UTF-8”).csv(r'path\..\file.csv'))

尝试用UTF-8编码,并确保使用适当的编码读取文本文件:

df.coalesce(1).write.option(“header”,“true”).option(“encoding”,“UTF-8”).csv(r'path\..\file.csv'))

输出仍然包含这样的奇怪字符(俎«å³俎䟾俎俎俎俎俎俎俎俎俎俎俎您是否确保它不是来自您的文本编辑器,并且您正在使用UTF-8格式读取文件?我也是说UTF-8,但它可能是另一种编码。请事先检查输入的编码。输出仍然包含像这样的奇怪字符(俎俎俎俎俎俎俎俎)您是否确保它不是来自文本编辑器,并且您正在使用UTF-8格式读取文件?我也是说UTF-8,但它可能是另一种编码。请事先检查输入的编码。