Apache spark 分析csv文件时发生时间偏移
我有一个csv文件,每个记录(行)有时间戳。我正在使用spark csv解析它(我将它包括在spark 1.5.2中),但是发生了一件奇怪的事情 我的文件中的所有时间戳都移动了3个小时。例如,我的值从Apache spark 分析csv文件时发生时间偏移,apache-spark,Apache Spark,我有一个csv文件,每个记录(行)有时间戳。我正在使用spark csv解析它(我将它包括在spark 1.5.2中),但是发生了一件奇怪的事情 我的文件中的所有时间戳都移动了3个小时。例如,我的值从2015-12-27 00:00:00开始,以2016-12-28 00:00:00结束。现在,当我使用Spark解析这个时,我得到的值范围是从2015-12-27 03:00:00到2015-12-28 03:00:00 为什么会发生这种情况?最好的解决方法是什么?问题在于服务器上的时区不同于UT
2015-12-27 00:00:00
开始,以2016-12-28 00:00:00
结束。现在,当我使用Spark解析这个时,我得到的值范围是从2015-12-27 03:00:00
到2015-12-28 03:00:00
为什么会发生这种情况?最好的解决方法是什么?问题在于服务器上的时区不同于UTC。这就搞砸了解析,在解析过程中增加了3个小时