如何使用rest调用终止Spark应用程序?

如何使用rest调用终止Spark应用程序?,rest,apache-spark,Rest,Apache Spark,我在客户端和集群模式下运行Spark。是否有任何rest url可用于杀死正在运行的spark应用程序和驱动程序?目前spark有一个。很有可能在未来它将是公开的(见问题)。然而,目前它仍然是“私有”的,所以您应该使用它,风险自负——这意味着如果下一个Spark版本的API发生了变化,您需要更新代码 否则,您可以使用,但这将带来更多您可能不需要的包/依赖项 如果在纱线上运行,您可以使用“纱线应用程序-终止应用程序\u XXXX\u ID”终止应用程序 此命令也可以使用Thread REST AP

我在客户端和集群模式下运行Spark。是否有任何rest url可用于杀死正在运行的spark应用程序和驱动程序?

目前spark有一个。很有可能在未来它将是公开的(见问题)。然而,目前它仍然是“私有”的,所以您应该使用它,风险自负——这意味着如果下一个Spark版本的API发生了变化,您需要更新代码


否则,您可以使用,但这将带来更多您可能不需要的包/依赖项

如果在纱线上运行,您可以使用“纱线应用程序-终止应用程序\u XXXX\u ID”终止应用程序

此命令也可以使用Thread REST API发出,并在

这篇博文实际上使用了纱线RESTAPI


因此,上述仅在纱线上可行

如果您有submissionId,请尝试此选项:-

curl -X POST http://spark-cluster-ip:6066/v1/submissions/kill/driver-20151008145126-0000
curl-X PUT'-d'{“state”:“KILLED”}


我认为说你需要纱线是不对的:它明确提到Spark Standalone,因此,不需要纱线。