Java 如何使用ApacheSpark读取来自公式的excel文件列数据
我正在尝试读取spark中的一个excel文件。我正在为此使用Java 如何使用ApacheSpark读取来自公式的excel文件列数据,java,scala,apache-spark,spark-excel,Java,Scala,Apache Spark,Spark Excel,我正在尝试读取spark中的一个excel文件。我正在为此使用crealytics库 但我的代码失败了,因为其中一列引用了工作表,通过VLOOKUP公式填充其值 我一直在尝试“crealytics”图书馆,但没有运气 val df = spark.read.format("com.crealytics.spark.excel") .option("sheetName", "Final_Output") .option("useHeader", "true")
crealytics
库
但我的代码失败了,因为其中一列引用了工作表,通过VLOOKUP公式填充其值
我一直在尝试“crealytics”图书馆,但没有运气
val df = spark.read.format("com.crealytics.spark.excel")
.option("sheetName", "Final_Output")
.option("useHeader", "true")
.option("treatEmptyValuesAsNulls", "false")
.option("inferSchema", "false")
.option("addColorColumns", "false")
.option("location", input_path)
.load()
df.show(5, false)
java.lang.RuntimeException:VLOOKUP的未知单元格类型2
由于计算列的原因,您的异常不会出现。Spark不区分计算列和普通列。我还要提到一件事-use已将“inferSchema”定义为false,并且您没有显式提供任何架构。上有一个非常好的示例。由于计算列,您的异常不会出现。Spark不区分计算列和普通列。我还想提一件事-use已将“InferreSchema”定义为false,并且您没有显式提供任何架构。上有一个非常好的示例。