Apache spark Spark:如何在不退出shell的情况下终止正在运行的进程?
如何在不退出的情况下在本地OSX机器上的Spark shell中终止正在运行的进程 例如,如果我只对RDD执行一个简单的Apache spark Spark:如何在不退出shell的情况下终止正在运行的进程?,apache-spark,Apache Spark,如何在不退出的情况下在本地OSX机器上的Spark shell中终止正在运行的进程 例如,如果我只对RDD执行一个简单的.count(),可能需要一段时间,有时我想杀死它 但是,如果我按Ctrl-C键,那么它会杀死整个shell 有没有一种方法可以杀死进程而不是外壳?摘自spark文档: 然后,如果您希望终止一个反复失败的应用程序,可以通过: /bin/spark class org.apache.spark.deploy.Client kill 链接:您可以使用主Web界面终止或可视化作业。
.count()
,可能需要一段时间,有时我想杀死它
但是,如果我按Ctrl-C键,那么它会杀死整个shell
有没有一种方法可以杀死进程而不是外壳?摘自spark文档: 然后,如果您希望终止一个反复失败的应用程序,可以通过:
/bin/spark class org.apache.spark.deploy.Client kill
链接:您可以使用主Web界面终止或可视化作业。
您还可以在那里找到其他内容,如日志文件或群集工作图…您使用的是哪个群集?纱线还是单机版?从2016年8月1日起,我控制^C,它只杀死命令,而不杀死外壳。然而,我在一个真实的集群中。在一个本地spark shell上,我无法通过按Ctrl-C停止流式处理作业。我必须关闭终端窗口!我使用的是纱线,control+C也会杀死整个外壳。那么这是来自不同终端会话的命令吗?bc在长时间运行命令期间,spark shell将无响应。