Apache spark 从哪里可以看到服务器上运行了多少spark作业?

Apache spark 从哪里可以看到服务器上运行了多少spark作业?,apache-spark,pyspark,spark-streaming,distributed-computing,Apache Spark,Pyspark,Spark Streaming,Distributed Computing,我在linux服务器上提交了spark作业,可以在控制台中查看并确定它是否正在运行 但如果生产多个spark作业提交并在服务器上运行 那么在那个时候我从哪里可以看到有多少spark作业在运行 默认情况下,每个SparkContext都会在您提交应用程序的主机上的4040端口上启动一个web UI。有关应用程序监控的更多详细信息,请检查此项您可以从命令行获取正在运行的应用程序列表(假设您正在使用) 关于Thread命令行操作您的资源/群集管理器是什么?@mrsrinivas Spark作业正在群集

我在linux服务器上提交了spark作业,可以在控制台中查看并确定它是否正在运行

但如果生产多个spark作业提交并在服务器上运行


那么在那个时候我从哪里可以看到有多少spark作业在运行

默认情况下,每个SparkContext都会在您提交应用程序的主机上的4040端口上启动一个web UI。有关应用程序监控的更多详细信息,请检查此项

您可以从命令行获取正在运行的应用程序列表(假设您正在使用)


关于Thread命令行操作

您的资源/群集管理器是什么?@mrsrinivas Spark作业正在群集上运行
yarn application --list