Spark streaming:如何使用java在数据帧上应用窗口

Spark streaming:如何使用java在数据帧上应用窗口,java,dataframe,apache-kafka,spark-streaming,Java,Dataframe,Apache Kafka,Spark Streaming,如何恢复数据:每15分钟,我要恢复过去15分钟的数据。 如果我在14H:00,我必须将数据从13H:45恢复到14H 我试过了 数据集df=mydf .带水印(“时间戳”、“15分钟”) .groupBy(窗口(“时间戳”)、“15分钟”、“15分钟”)、列(“值”).count(); 但它不起作用,有想法的人请,谢谢我刚读了一本书,有人用PySpark做这件事,所以这是可能的。但我想不起来该怎么做。我提醒大家,我已经看到了方法log(…)和over(…)的用法。祝你好运希望有比我知识渊博的人

如何恢复数据:每15分钟,我要恢复过去15分钟的数据。 如果我在14H:00,我必须将数据从13H:45恢复到14H

我试过了

数据集df=mydf .带水印(“时间戳”、“15分钟”) .groupBy(窗口(“时间戳”)、“15分钟”、“15分钟”)、列(“值”).count();
但它不起作用,有想法的人请,谢谢

我刚读了一本书,有人用
PySpark
做这件事,所以这是可能的。但我想不起来该怎么做。我提醒大家,我已经看到了方法
log(…)
over(…)
的用法。祝你好运希望有比我知识渊博的人能帮助你!你能解释一下什么不起作用吗?您是否收到错误信息,或是处理错误数据?你能打印
mydf
的模式吗?它没有按预期工作。它没有在窗口中返回数据。模式是:|--key:binary(nullable=true)|--value:binary(nullable=true)|--topic:string(nullable=true)|--分区:integer(nullable=true)|--偏移量:long(nullable=true)|--时间戳:时间戳(nullable=true)|--timestampType:integer(nullable=true)我刚读了一本书,书中有人在用
PySpark
做这件事,所以这是可能的。但我不能提醒怎么做。我提醒大家已经看过方法
log(…)
over(…)
。祝你好运!希望比我有更多知识的人能帮助你!你能解释一下什么不起作用吗?你有错误吗?还是它处理了错误的数据?你能打印
mydf的模式吗?
?它没有按预期工作。它不会在窗口中返回我的数据。模式是:|--key:binary(nullable=true)|--值:二进制(nullable=true)|--主题:字符串(nullable=true)|--分区:整数(nullable=true)|--偏移量:长(nullable=true)|--时间戳:时间戳(nullable=true)|--时间戳类型:整数(nullable=true)