PySpark-正在保存配置单元表-org.apache.spark.SparkException:无法识别配置单元类型字符串

PySpark-正在保存配置单元表-org.apache.spark.SparkException:无法识别配置单元类型字符串,pyspark,databricks,apache-spark-2.0,Pyspark,Databricks,Apache Spark 2.0,我正在将spark数据帧保存到配置单元表。spark数据帧是一个嵌套的json数据结构。我可以将数据框保存为文件,但在创建配置单元表时失败 org.apache.spark.SparkException:无法识别配置单元类型字符串 我无法先创建配置单元表模式,然后再将其插入,因为数据框由数百个嵌套列组成 因此,我将其保存为: df.write.partitionBy("dt","file_dt").saveAsTable("df") 我无法调试此问题的原因。我遇到的问题与一些列有关,这些列被命

我正在将spark数据帧保存到配置单元表。spark数据帧是一个嵌套的json数据结构。我可以将数据框保存为文件,但在创建配置单元表时失败
org.apache.spark.SparkException:无法识别配置单元类型字符串

我无法先创建配置单元表模式,然后再将其插入,因为数据框由数百个嵌套列组成

因此,我将其保存为:

df.write.partitionBy("dt","file_dt").saveAsTable("df")

我无法调试此问题的原因。

我遇到的问题与一些列有关,这些列被命名为数字“1”、“2”、“3”。删除dataframe中的这些列可以让我创建一个没有任何错误的配置单元表。

您能指出一些说明此限制的文档吗?我认为跟踪错误如何继续很重要:org.apache.spark.SparkException:无法识别配置单元类型字符串(…)