Apache spark 如果Spark计算时间大于批处理间隔,会发生什么情况

Apache spark 如果Spark计算时间大于批处理间隔,会发生什么情况,apache-spark,spark-streaming,bigdata,Apache Spark,Spark Streaming,Bigdata,我不熟悉spark,如果我对RDD的计算时间大于批处理间隔持续时间,会发生什么情况?在任何时间点,正在进行计算的RDD会发生什么情况?数据流由单个RDD组成,除非我们正在执行一些窗口操作。如果我的算法计算时间大于批处理持续时间,那么上一个RDD会发生什么情况呢?您会得到积压工作,希望会有反压力。如果情况真的变得糟糕,系统将丢弃消息。尝试优化您的代码。在任何时候,数据流都由单个RDD组成,除非我们正在执行一些窗口操作。如果我的算法计算时间大于批处理持续时间,那么上一个RDD会发生什么情况呢?您会得

我不熟悉spark,如果我对RDD的计算时间大于批处理间隔持续时间,会发生什么情况?在任何时间点,正在进行计算的RDD会发生什么情况?数据流由单个RDD组成,除非我们正在执行一些窗口操作。如果我的算法计算时间大于批处理持续时间,那么上一个RDD会发生什么情况呢?您会得到积压工作,希望会有反压力。如果情况真的变得糟糕,系统将丢弃消息。尝试优化您的代码。在任何时候,数据流都由单个RDD组成,除非我们正在执行一些窗口操作。如果我的算法计算时间大于批处理持续时间,那么上一个RDD会发生什么情况呢?您会得到积压工作,希望会有反压力。如果情况真的变得糟糕,系统将丢弃消息。试着优化你的代码。