Apache spark PySpark Streaming updateStateByKey不提供任何输出

Apache spark PySpark Streaming updateStateByKey不提供任何输出,apache-spark,pyspark,streaming,Apache Spark,Pyspark,Streaming,我在一个模拟的数据流上运行spark streaming,该数据流包含4个文本文件,其中包含一行用于分配的总线信息。我的代码一直工作到updateStateByKey的应用程序,然后它就没有输出了。我有一个键、值对(小时、延迟)的数据流,它将按预期对每个批次进行pprint(),如下图所示: 然后,当我使用updateStateByKey时,它应该做的就是对每个批处理的值求和,除了初始时间戳之外,我没有得到任何输出。同样,这个精确的代码在我同学的机器上运行良好 这是正在调用的my_state

我在一个模拟的数据流上运行spark streaming,该数据流包含4个文本文件,其中包含一行用于分配的总线信息。我的代码一直工作到updateStateByKey的应用程序,然后它就没有输出了。我有一个键、值对(小时、延迟)的数据流,它将按预期对每个批次进行pprint(),如下图所示:

然后,当我使用updateStateByKey时,它应该做的就是对每个批处理的值求和,除了初始时间戳之外,我没有得到任何输出。同样,这个精确的代码在我同学的机器上运行良好

这是正在调用的my_state_update函数

有人知道是什么原因导致我的机器无法工作吗?Spark core和sql一直运行良好。我在Windows上使用spyder来运行代码,虽然我尝试过用pycharm和命令行来运行它,但仍然有相同的体验。任何帮助都将不胜感激。

,请将它们粘贴到代码块中,并将它们粘贴到代码块中。