Pyspark 如何在DataRicks中读取数据包含双引号和逗号分隔的csv文件

Pyspark 如何在DataRicks中读取数据包含双引号和逗号分隔的csv文件,pyspark,apache-spark-sql,azure-databricks,Pyspark,Apache Spark Sql,Azure Databricks,我正在尝试使用DataRicks中的spark dataframe读取csv文件。csv文件包含双引号和逗号分隔的列。我尝试了以下代码,但无法读取csv文件。但是,如果我在datalake中检查该文件,我可以看到该文件 输入和输出如下所示 df=spark.read.format(“com.databricks.spark.csv”)\ .选项(“标题”、“正确”)\ .选项(“全部”、“真实”)\ .选项(“转义”、“转义”)\ .csv(“mnt/A/B/test1.csv”) 输入文件数

我正在尝试使用DataRicks中的spark dataframe读取csv文件。csv文件包含双引号和逗号分隔的列。我尝试了以下代码,但无法读取csv文件。但是,如果我在datalake中检查该文件,我可以看到该文件

输入和输出如下所示

df=spark.read.format(“com.databricks.spark.csv”)\
.选项(“标题”、“正确”)\
.选项(“全部”、“真实”)\
.选项(“转义”、“转义”)\
.csv(“mnt/A/B/test1.csv”)
输入文件数据:头:

“A”、“B”、“C”
“123”、“dss”、“csc”
“124”、“sfs”、“dgs”
输出:

“A”|“B”|“C”|