Scala Spark sql Unix时间戳返回错误的输出

Scala Spark sql Unix时间戳返回错误的输出,scala,apache-spark,unix-timestamp,Scala,Apache Spark,Unix Timestamp,下面的查询返回的是2017-02-23 00:45:00,而不是12:45 spark.sql(“从unix时间戳('2017-02-23 12:45:00')中选择”+ “'yyyy-MM-dd hh:MM:ss')))。显示(错误) 但是下面的查询正在返回预期的输出 2017-02-23 13:45:00 spark.sql(“从unix时间戳('2017-02-23 13:45:00')中选择”+ “'yyyy-MM-dd hh:MM:ss')))。显示(错误) 能找个人帮忙吗 您应该

下面的查询返回的是
2017-02-23 00:45:00
,而不是
12:45

spark.sql(“从unix时间戳('2017-02-23 12:45:00')中选择”+
“'yyyy-MM-dd hh:MM:ss')))。显示(错误)
但是下面的查询正在返回预期的输出

2017-02-23 13:45:00

spark.sql(“从unix时间戳('2017-02-23 13:45:00')中选择”+
“'yyyy-MM-dd hh:MM:ss')))。显示(错误)

能找个人帮忙吗

您应该使用大写字母h作为
HH:mm:ss

spark.sql("select from_unixtime(unix_timestamp(('2017-02-23 12:45:00'),'yyyy-MM-dd HH:mm:ss')) AS date").show(false)
应该给你什么

+-------------------+
|date               |
+-------------------+
|2017-02-23 12:45:00|
+-------------------+

您可以获得更多信息

我可以知道HhH和hhyes之间的区别吗?当然,您可以在我在问题或查看中更新的链接中找到更多详细信息