Scala Spark sql Unix时间戳返回错误的输出
下面的查询返回的是Scala Spark sql Unix时间戳返回错误的输出,scala,apache-spark,unix-timestamp,Scala,Apache Spark,Unix Timestamp,下面的查询返回的是2017-02-23 00:45:00,而不是12:45 spark.sql(“从unix时间戳('2017-02-23 12:45:00')中选择”+ “'yyyy-MM-dd hh:MM:ss')))。显示(错误) 但是下面的查询正在返回预期的输出 2017-02-23 13:45:00 spark.sql(“从unix时间戳('2017-02-23 13:45:00')中选择”+ “'yyyy-MM-dd hh:MM:ss')))。显示(错误) 能找个人帮忙吗 您应该
2017-02-23 00:45:00
,而不是12:45
spark.sql(“从unix时间戳('2017-02-23 12:45:00')中选择”+
“'yyyy-MM-dd hh:MM:ss')))。显示(错误)
但是下面的查询正在返回预期的输出
2017-02-23 13:45:00
spark.sql(“从unix时间戳('2017-02-23 13:45:00')中选择”+
“'yyyy-MM-dd hh:MM:ss')))。显示(错误)
能找个人帮忙吗 您应该使用大写字母h作为
HH:mm:ss
spark.sql("select from_unixtime(unix_timestamp(('2017-02-23 12:45:00'),'yyyy-MM-dd HH:mm:ss')) AS date").show(false)
应该给你什么
+-------------------+
|date |
+-------------------+
|2017-02-23 12:45:00|
+-------------------+
您可以获得更多信息我可以知道HhH和hhyes之间的区别吗?当然,您可以在我在问题或查看中更新的链接中找到更多详细信息