尝试通过com.crealytics.spark.excel读取excel文件时发生scala.MatchError
我正试图通过com.crealytics.spark.excel读取excel文件。但我在尝试运行代码时遇到以下错误:尝试通过com.crealytics.spark.excel读取excel文件时发生scala.MatchError,excel,apache-spark,spark-excel,Excel,Apache Spark,Spark Excel,我正试图通过com.crealytics.spark.excel读取excel文件。但我在尝试运行代码时遇到以下错误: scala.MatchError: Map(treatemptyvaluesasnulls -> true, location -> a.xlsx, useheader -> true, inferschema -> False, addcolorcolumns -> False) (of class org.apache.spark.sql.ca
scala.MatchError: Map(treatemptyvaluesasnulls -> true, location -> a.xlsx, useheader -> true, inferschema -> False, addcolorcolumns -> False) (of class org.apache.spark.sql.catalyst.util.CaseInsensitiveMap)
at com.crealytics.spark.excel.WorkbookReader$.apply(WorkbookReader.scala:30)
这是我的密码:
spark.read
.format("com.crealytics.spark.excel")
.option("location", fileLoc)
.option("useHeader", "true")
.option("treatEmptyValuesAsNulls", "true")
.option("inferSchema", "False")
.option("addColorColumns", "False")
.load()
如果您安装
com.crealytics:spark-excel_2.11:0.12.5
library(在Databricks中按预期工作),这可能会起作用
你用的是什么版本?这似乎已在较新版本中修复,请参阅:。我正在使用0.12.0版本库依赖项+=“com.crealytics”%%“spark excel”%%“0.12.0”
val df_excel= spark.read.
format("com.crealytics.spark.excel").
option("useHeader", "true").
option("treatEmptyValuesAsNulls", "false").
option("inferSchema", "false").
option("addColorColumns", "false").load(file_path)
display(df_excel)