在Scala Spark中的写入操作期间,输出时间戳列值正在更改?
我试图从源读取数据并将数据插入另一个配置单元表,但所有时间戳列的值都已更改(-4小时)。为什么它会更改时间戳 这是源代码的外观:在Scala Spark中的写入操作期间,输出时间戳列值正在更改?,scala,apache-spark,Scala,Apache Spark,我试图从源读取数据并将数据插入另一个配置单元表,但所有时间戳列的值都已更改(-4小时)。为什么它会更改时间戳 这是源代码的外观: ID日期 1, 2019-05-14 00:00:00 这是插入后配置单元表的外观: ID日期 1, 2019-05-13 20:00:00 我不知道为什么所有的时间戳列都改为-4小时,希望有人已经遇到了这个问题 我尝试了以下几个选项 在代码中使用conf.set(“spark.sql.session.timeZone”,“EDT”) 将数据类型强制转换为
ID日期
1, 2019-05-14 00:00:00
这是插入后配置单元表的外观:
ID日期
1, 2019-05-13 20:00:00
我不知道为什么所有的时间戳列都改为-4小时,希望有人已经遇到了这个问题
我尝试了以下几个选项
conf.set(“spark.sql.session.timeZone”,“EDT”)
选项(“timestampFormat”,“yyyy-MM-dd hh:MM:ss”)
TimeZone.setDefault(TimeZone.getTimeZone(“EDT”))