Hadoop 跟踪apache spark 2.0.2的内存使用或消耗

Hadoop 跟踪apache spark 2.0.2的内存使用或消耗,hadoop,apache-spark,memory-management,monitoring,apache-spark-2.0,Hadoop,Apache Spark,Memory Management,Monitoring,Apache Spark 2.0,我是ApacheSpark的初学者,已经用hadoop安装了ApacheSpark的预构建发行版。我希望在运行spark中实现的示例PageRank时获得内存的消耗或使用情况。我有1个脉泽和4个工作者(虚拟机)的集群独立模式 我尝试过ganglia和graphite等外部工具,但它们提供了资源或系统级别的内存使用情况(更一般),但我需要的是“在运行算法时跟踪内存的行为(存储、执行),这意味着spark应用程序ID的内存使用情况”。是否仍有将其放入文本文件以供进一步利用的方法?请在这方面帮助我,谢

我是ApacheSpark的初学者,已经用hadoop安装了ApacheSpark的预构建发行版。我希望在运行spark中实现的示例PageRank时获得内存的消耗或使用情况。我有1个脉泽和4个工作者(虚拟机)的集群独立模式


我尝试过ganglia和graphite等外部工具,但它们提供了资源或系统级别的内存使用情况(更一般),但我需要的是“在运行算法时跟踪内存的行为(存储、执行),这意味着spark应用程序ID的内存使用情况”。是否仍有将其放入文本文件以供进一步利用的方法?请在这方面帮助我,谢谢

有没有办法只获取存储的内存消耗?