Python 3.x 如何阅读ñ;使用csv中的pyspark

Python 3.x 如何阅读ñ;使用csv中的pyspark,python-3.x,csv,pyspark,non-ascii-characters,Python 3.x,Csv,Pyspark,Non Ascii Characters,我试图从pysaprk中的csv读取非Ascii字符,特别是csv包含西班牙语国家的名称,因此我有ESPAña(西班牙语中的西班牙),但它读取的是ESPA�OLA 这是我正在使用的代码: df = sqlContext.read.csv("path", sep=",", header=True ) 我找不到sqlContext.read接受的所有编码,我试图使用latin-1,但我得到一条消息,它不受支持在用read.csv()加载文件之前,是否有办法将文件转换为UTF-8编码 其他可能相关

我试图从pysaprk中的csv读取非Ascii字符,特别是csv包含西班牙语国家的名称,因此我有
ESPAña
(西班牙语中的西班牙),但它读取的是
ESPA�OLA

这是我正在使用的代码:

df = sqlContext.read.csv("path", sep=",", header=True ) 

我找不到
sqlContext.read
接受的所有编码,我试图使用
latin-1
,但我得到一条消息,它不受支持

在用read.csv()加载文件之前,是否有办法将文件转换为UTF-8编码

其他可能相关的问题:

我看过那篇文章,但我的理解是,没有办法用spark阅读这些字符,对吗?我想使用spark读取它们(如果可能的话)尝试使用参数encoding=“iso-8859”运行,如果它仍然表示不支持,那么最安全的方法是首先将文件转换为UTF-8。这可能在这方面有所帮助:是的,编码说它不受支持,谢谢