Apache spark SparkSQL如何在时间字段中进行加减
我有sparkSQl csreipdt。具有数据帧。基于SQL select的CatatesApache spark SparkSQL如何在时间字段中进行加减,apache-spark,apache-spark-sql,Apache Spark,Apache Spark Sql,我有sparkSQl csreipdt。具有数据帧。基于SQL select的Catates val df_t = sparkSession.sqlContext.sql(" select datetime from table") 我需要返回与datetime+1分钟和datetime-1分钟相同的datetime,我找不到如何执行该操作的解决方案?有什么想法吗?可能有一种更聪明的方法,但一旦您将本地值拉入dfu t,您似乎可以在该值上运行lamba来增加所有值,然后再将其提交回来 您能
val df_t = sparkSession.sqlContext.sql(" select datetime from table")
我需要返回与datetime+1分钟和datetime-1分钟相同的datetime,我找不到如何执行该操作的解决方案?有什么想法吗?可能有一种更聪明的方法,但一旦您将本地值拉入dfu t,您似乎可以在该值上运行lamba来增加所有值,然后再将其提交回来 您能使用interval吗
spark.sql("""SELECT current_timestamp() - INTERVAL 1 MINUTE, current_timestamp() + INTERVAL 1 MINUTE""").show(false)
我对SparkSQl非常陌生,老实说,我不明白你在说什么。我想做一些事情,比如unix_timestamp'2018-08-12 21:16:32'+60位不确定它是否能正常工作,我想说的是,如果你正在经历一系列的值,你不必使用spark来更新它们,您可以自己更新并提交它们。我将在where子句中使用此日期查找我需要的记录