Scala Spark SQL不支持的数据类型TimestampType

Scala Spark SQL不支持的数据类型TimestampType,scala,apache-spark,Scala,Apache Spark,我刚刚接触spark和scala。尝试读取文本文件并将其保存为拼花文件。对我来说,我正在使用的一个字段是时间戳,文档中说spark1.1.0支持java.util.TimeStamp 保存到拼花文件时出现的运行时错误是 线程“main”java.lang.RuntimeException中的异常:org.apache.spark.sql.parquet.ParquetTypesConverter$$anonfun$fromDataType$2.apply(ParquetTypes.scala:3

我刚刚接触spark和scala。尝试读取文本文件并将其保存为拼花文件。对我来说,我正在使用的一个字段是时间戳,文档中说spark1.1.0支持java.util.TimeStamp

保存到拼花文件时出现的运行时错误是

线程“main”java.lang.RuntimeException中的异常:org.apache.spark.sql.parquet.ParquetTypesConverter$$anonfun$fromDataType$2.apply(ParquetTypes.scala:301)处的scala.sys.package$.error(package.scala:27)处不支持的数据类型timestype

任何建议都是值得赞赏的


谢谢

这实际上是1.3.0之前版本的一个已知错误:

已合并拉取请求:但在1.3.0发布之前,该请求将不可用

如果您赶时间,您可以在本地构建1.3.0的主分支,否则您可能不得不等待,但这是有希望的,因为Spark 1.3.0的RC2昨天开始被选为最终版本,因此如果候选版本一切正常,事情可以进展得相当快

问候,