Apache spark 如何杀死斯巴克的工作

Apache spark 如何杀死斯巴克的工作,apache-spark,sparkr,Apache Spark,Sparkr,我正在使用Spark 2.0.0,我有基于web的RStudio,通过它我正在使用SparkR软件包 当运行一个大程序时,如果我必须在这个过程中终止一个作业,我该怎么做呢 R中的STOP按钮不起作用,如果我杀死会话本身,那么在该会话中创建的所有对象也会被删除 最好的方法是什么?因为R可能会阻塞,因为它正在等待Spark的响应,所以最合适的方法可能是访问WebUI(当然,如果可以访问的话)并终止当前阶段 打开masterWebUI(默认端口为8080),然后单击应用程序名称SparkR。 现在,您

我正在使用Spark 2.0.0,我有基于web的RStudio,通过它我正在使用SparkR软件包

当运行一个大程序时,如果我必须在这个过程中终止一个作业,我该怎么做呢

R中的STOP按钮不起作用,如果我杀死会话本身,那么在该会话中创建的所有对象也会被删除


最好的方法是什么?

因为R可能会阻塞,因为它正在等待Spark的响应,所以最合适的方法可能是访问WebUI(当然,如果可以访问的话)并终止当前阶段

打开masterWebUI(默认端口为8080),然后单击应用程序名称SparkR。 现在,您进入了SparkR应用程序界面。单击阶段,然后按(kill)关闭活动阶段。当然,这并不会杀死一切,只有活动阶段和其他阶段可能也需要杀死。

您只需写下: sparkR.session.stop()

然后重新启动R的会话:

会话->重新启动R