Apache spark 长时间闲置后具有Spark/pyspark内核行为的Jupyter笔记本

Apache spark 长时间闲置后具有Spark/pyspark内核行为的Jupyter笔记本,apache-spark,jupyter-notebook,Apache Spark,Jupyter Notebook,Jupyter笔记本电脑在闲置足够长的时间后似乎不稳定,导致spark执行器心跳超时 在这里,我们看到执行器心跳已超过超时时间: 这种行为很好。什么是不是:没有明显的方法让笔记本恢复:它只是挂起了: 可以看出,*表示内核仍然认为需要处理这个单元。这种情况已经持续了9分钟——实际执行时间应该更接近9秒 我试过菜单上的所有东西: 尝试:重新启动重新连接甚至关闭:没有任何东西会影响该单元的状态-这意味着笔记本仍然“卡住” 在这里,我们看到重新启动和关闭是在jupyter服务器上接收到的: 但是

Jupyter笔记本电脑在闲置足够长的时间后似乎不稳定,导致spark执行器心跳超时

在这里,我们看到执行器心跳已超过超时时间:

这种行为很好。什么是不是:没有明显的方法让笔记本恢复:它只是挂起了

可以看出,
*
表示内核仍然认为需要处理这个单元。这种情况已经持续了9分钟——实际执行时间应该更接近9秒

我试过菜单上的所有东西:

尝试:
重新启动
重新连接
甚至关闭:没有任何东西会影响该单元的状态-这意味着笔记本仍然“卡住”

在这里,我们看到
重新启动
关闭
是在
jupyter
服务器上接收到的:

但是,对“卡住”的单元格没有影响

我是否只需要关闭笔记本?在这种情况下,所有这些菜单选项的意义是什么