Spark/Scala-unix\u时间戳返回错误的日期?

Spark/Scala-unix\u时间戳返回错误的日期?,scala,apache-spark,epoch,Scala,Apache Spark,Epoch,我有一段Spark代码,如下所示: df //existing dataframe .withColumn("input_date", lit("20190105")) .withColumn("input_date_epoch", unix_timestamp(col("input_date"), "YYYYMMdd")) 现在,当我运行df.descripe时,返回的数据显示input\u date\u epoch列的所有值为1546128000,当我运行一个epoch转换器时,它

我有一段Spark代码,如下所示:

df //existing dataframe
  .withColumn("input_date", lit("20190105"))
  .withColumn("input_date_epoch", unix_timestamp(col("input_date"), "YYYYMMdd"))
现在,当我运行
df.descripe
时,返回的数据显示
input\u date\u epoch
列的所有值为
1546128000
,当我运行一个epoch转换器时,它的值为2018-12-30 00:00:00,而不是2019-01-05 00:00:00:00的预期值


我在这里做错了什么吗?

模式是错误的,如果您想要四位数的年份,请使用
yyy

spark.range(5)
  .withColumn("input_date", lit("20190105"))
  .withColumn("input_date_epoch", unix_timestamp(col("input_date"), "yyyyMMdd"))
yyyy
实际上指的是weekyear,请参见