Spark/Scala-unix\u时间戳返回错误的日期?
我有一段Spark代码,如下所示:Spark/Scala-unix\u时间戳返回错误的日期?,scala,apache-spark,epoch,Scala,Apache Spark,Epoch,我有一段Spark代码,如下所示: df //existing dataframe .withColumn("input_date", lit("20190105")) .withColumn("input_date_epoch", unix_timestamp(col("input_date"), "YYYYMMdd")) 现在,当我运行df.descripe时,返回的数据显示input\u date\u epoch列的所有值为1546128000,当我运行一个epoch转换器时,它
df //existing dataframe
.withColumn("input_date", lit("20190105"))
.withColumn("input_date_epoch", unix_timestamp(col("input_date"), "YYYYMMdd"))
现在,当我运行df.descripe
时,返回的数据显示input\u date\u epoch
列的所有值为1546128000
,当我运行一个epoch转换器时,它的值为2018-12-30 00:00:00,而不是2019-01-05 00:00:00:00的预期值
我在这里做错了什么吗?模式是错误的,如果您想要四位数的年份,请使用
yyy
:
spark.range(5)
.withColumn("input_date", lit("20190105"))
.withColumn("input_date_epoch", unix_timestamp(col("input_date"), "yyyyMMdd"))
yyyy
实际上指的是weekyear,请参见