Apache spark 如何通过spark应用程序监控内存和CPU使用情况?
运行spark应用程序后,我想监视它的内存和cpu使用情况,以评估它的性能,但找不到任何选项。有可能监控它吗?如何通过spark应用程序监控内存和CPU使用情况?有几个选项:Apache spark 如何通过spark应用程序监控内存和CPU使用情况?,apache-spark,memory-management,cpu-usage,Apache Spark,Memory Management,Cpu Usage,运行spark应用程序后,我想监视它的内存和cpu使用情况,以评估它的性能,但找不到任何选项。有可能监控它吗?如何通过spark应用程序监控内存和CPU使用情况?有几个选项: 神经节就是其中之一 如果您在自己的集群上运行,HDP或Cloudera都有实时CPU和内存消耗图表 如果您想要特定的JVM指标,那么我建议您,尽管它不是实时的 还有,它非常强大,你可以用它跟踪很多指标,而且是实时的 也许我能帮你?