Apache spark 无法查看与执行者的spark相关的指标
在Apache spark 无法查看与执行者的spark相关的指标,apache-spark,jvm,jmx,metrics,jmxtrans,Apache Spark,Jvm,Jmx,Metrics,Jmxtrans,在metric.properties中进行更改并在命令行中传递相关参数后 “-Dcom.sun.management.jmxremote=true -Dcom.sun.management.jmxremote.authenticate=false-Dcom.sun.management.jmxremote.ssl=false-Djava.net.preferIPv4Stack=true-Dcom.sun.management.jmxremote.port=0 org.apache.spark.d
metric.properties
中进行更改并在命令行中传递相关参数后
“-Dcom.sun.management.jmxremote=true
-Dcom.sun.management.jmxremote.authenticate=false-Dcom.sun.management.jmxremote.ssl=false-Djava.net.preferIPv4Stack=true-Dcom.sun.management.jmxremote.port=0 org.apache.spark.deploy.SparkSubmit--conf
spark.metrics.conf=./metrics.properties--conf
spark.driver.extraJavaOptions=-Dcom.sun.management.jmxremote=true
-Dcom.sun.management.jmxremote.authenticate=false-Dcom.sun.management.jmxremote.ssl=false-Djava.net.preferIPv4Stack=true-Dcom.sun.management.jmxremote.port=0`”
当我通过JConsole连接时,我只能看到执行者的JVM和Kafka(在我的例子中是Kafka制作者中的spark)的相关指标。我无法看到执行者的spark相关指标。有什么我遗漏的吗
注意:当通过JConsole连接时,我可以看到“驱动程序”的JVM、Kafka和spark相关指标。是否已解决?是否已解决?