Java 如何使用ApacheSpark读取来自公式的excel文件列数据

Java 如何使用ApacheSpark读取来自公式的excel文件列数据,java,scala,apache-spark,spark-excel,Java,Scala,Apache Spark,Spark Excel,我正在尝试读取spark中的一个excel文件。我正在为此使用crealytics库 但我的代码失败了,因为其中一列引用了工作表,通过VLOOKUP公式填充其值 我一直在尝试“crealytics”图书馆,但没有运气 val df = spark.read.format("com.crealytics.spark.excel") .option("sheetName", "Final_Output") .option("useHeader", "true")

我正在尝试读取spark中的一个excel文件。我正在为此使用
crealytics

但我的代码失败了,因为其中一列引用了工作表,通过VLOOKUP公式填充其值

我一直在尝试“crealytics”图书馆,但没有运气

val df = spark.read.format("com.crealytics.spark.excel")
        .option("sheetName", "Final_Output")
        .option("useHeader", "true")
        .option("treatEmptyValuesAsNulls", "false")
        .option("inferSchema", "false")
        .option("addColorColumns", "false")
        .option("location", input_path)
        .load()

df.show(5, false)
java.lang.RuntimeException:VLOOKUP的未知单元格类型2


由于计算列的原因,您的异常不会出现。Spark不区分计算列和普通列。我还要提到一件事-use已将“inferSchema”定义为false,并且您没有显式提供任何架构。上有一个非常好的示例。由于计算列,您的异常不会出现。Spark不区分计算列和普通列。我还想提一件事-use已将“InferreSchema”定义为false,并且您没有显式提供任何架构。上有一个非常好的示例。