Dataframe 如何删除列值pyspark中的引号
我有一个csv文件,列值中有引号。如何从列值中删除这些引号。例如Dataframe 如何删除列值pyspark中的引号,dataframe,apache-spark,pyspark,Dataframe,Apache Spark,Pyspark,我有一个csv文件,列值中有引号。如何从列值中删除这些引号。例如 +--------+------+------+ |sample |id |status| +--------+------+------+ |00000001|'1111'|'yes' | |00000002|'1222'|'no' | |00000003|'1333'|'yes' | +--------+------+------+ 当我读到它,我应该有DF像下面没有单一的报价 +--------+------+-
+--------+------+------+
|sample |id |status|
+--------+------+------+
|00000001|'1111'|'yes' |
|00000002|'1222'|'no' |
|00000003|'1333'|'yes' |
+--------+------+------+
当我读到它,我应该有DF像下面没有单一的报价
+--------+------+------+
|sample |id |status|
+--------+------+------+
|00000001| 1111 | yes |
|00000002| 1222 | no |
|00000003| 1333 | yes |
+--------+------+------+
加载csv数据时,您可以指定以下选项&Spark将自动解析引号
检查下面的代码
spark. \
read. \
option("quote", "\'"). \
option("escape", "\'"). \
csv("<path to directory>")
我们也可以用拼花锉刀吗。?