Python 如何从配置单元查询/pyspark获取unix时间戳中给出的最大日期

Python 如何从配置单元查询/pyspark获取unix时间戳中给出的最大日期,python,apache-spark-sql,max,min,pyspark-sql,Python,Apache Spark Sql,Max,Min,Pyspark Sql,我在unix时间戳中有一个日期列,如下所示: %sql从表中选择时间戳,其中日期列='date=2018053000'限制5 1527688604 1527688608 1527688610 1527688612 1527688616 timestamp2 2018-05-30 13:56:44 2018-05-30 13:56:48 2018-05-30 13:56:50 2018-05-30 13:56:52 2018-05-30 13:56:56

我在unix时间戳中有一个日期列,如下所示:

%sql从表中选择时间戳,其中日期列='date=2018053000'限制5

1527688604
1527688608
1527688610
1527688612
1527688616
timestamp2

    2018-05-30 13:56:44
    2018-05-30 13:56:48
    2018-05-30 13:56:50
    2018-05-30 13:56:52
    2018-05-30 13:56:56
现在,通过这个查询,我可以转换为日期
%sql从表中选择unixtime(timestamp)作为timestamp2,其中date\u列='date=2018053000'限制5

1527688604
1527688608
1527688610
1527688612
1527688616
timestamp2

    2018-05-30 13:56:44
    2018-05-30 13:56:48
    2018-05-30 13:56:50
    2018-05-30 13:56:52
    2018-05-30 13:56:56
我想得到最大日期值。我尝试了一些堆栈溢出的答案,但没有一个给出预期的结果


我试图从我的结果中找出最大和最小日期。这仅仅是使用
限制5的5个结果,但实际上我想对整个结果集执行。

它对最小值限制1,1和最大值限制5,1有效吗?@Davide:还有更多项。我刚刚使用了limit 5来显示一个数据示例。为什么您不能从表中选择max(timestamp),min(timestamp),其中…
?@pault:时间戳是utc格式的。如果我这样做,它会给出错误的答案。@Atihska请解释为什么它是错误的答案。你能举个例子吗?如果我错了,请纠正我,但时间戳应该是单调的,即使它们是utc。任何转换仍然维持秩序,不是吗?或者,您是在询问给定日期(不同时区)的最大时间戳?