Apache spark Spark执行器-它们是java进程吗?
我是新手。当我尝试在客户机模式下使用3个执行器运行spark submit时,我希望在执行Apache spark Spark执行器-它们是java进程吗?,apache-spark,Apache Spark,我是新手。当我尝试在客户机模式下使用3个执行器运行spark submit时,我希望在执行ps-ef时显示3个java进程(因为有3个执行器) $SPARK_HOME/bin/spark-submit --num-executors 3 --class AverageCalculation --master local[1] /home/customer/SimpleETL/target/SimpleETL-0.1.jar hdfs://node1:9000/home/customer/Simp
ps-ef时显示3个java进程(因为有3个执行器)
$SPARK_HOME/bin/spark-submit --num-executors 3 --class AverageCalculation --master local[1] /home/customer/SimpleETL/target/SimpleETL-0.1.jar hdfs://node1:9000/home/customer/SimpleETL/standard_input.csv
但是,我没有看到3个java进程。我的理解是,每个执行器进程都是一个java进程。请告知。谢谢。因为您使用的是本地
模式(--master local[1]
)执行器设置不适用。在这种情况下,spark只启动一个JVM来模拟所有组件,并将local
definition(1)中指定的线程数分配为执行线程
在其他模式中,执行器是独立的JVM实例。因为您使用本地
模式(--master local[1]
)执行器设置不适用。在这种情况下,spark只启动一个JVM来模拟所有组件,并将local
definition(1)中指定的线程数分配为执行线程
在其他模式中,执行器是独立的JVM实例。在Spark中,有主节点和工作节点。执行器在其自己的java进程中的工作节点上运行
在spark submit
中,您可以添加--deploy mode集群
,并查看执行器在其自己的JVM实例中的工作节点上运行
您可以查看Apache Spark的详细工作流程。在Spark中,有主节点和工作节点。执行器在其自己的java进程中的工作节点上运行
/home/spark/spark-2.2.1-bin-hadoop2.7/bin/spark-submit --class org.apache.spark.examples.SparkPi \
--num-executors 1000 \
--master yarn --deploy-mode cluster --driver-memory 4g --executor-memory 2g --executor-cores 1 \
--queue default /home/spark/spark-2.2.1-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.2.1.jar
在spark submit
中,您可以添加--deploy mode集群
,并查看执行器在其自己的JVM实例中的工作节点上运行
您可以查看ApacheSpark的详细工作流程
/home/spark/spark-2.2.1-bin-hadoop2.7/bin/spark-submit --class org.apache.spark.examples.SparkPi \
--num-executors 1000 \
--master yarn --deploy-mode cluster --driver-memory 4g --executor-memory 2g --executor-cores 1 \
--queue default /home/spark/spark-2.2.1-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.2.1.jar
~
我执行了上面的命令。并检查了ps-ef | grep java。但是我没有看到很多java进程。有什么简单的方法来识别遗嘱执行人吗
~
我执行了上面的命令。并检查了ps-ef | grep java。但是我没有看到很多java进程。有什么简单的方法可以识别执行者吗?每个执行者都是一个java进程。每个执行器包含一个jvm
jps
java进程的数量与执行者的数量相同。如果执行器分布在工作节点上。需要检查相应工作节点的进程。我们可以从spark history server web UI获取有关执行器的信息以及它在何处启动。每个执行器都是一个java进程。每个执行器包含一个jvm
jps
java进程的数量与执行者的数量相同。如果执行器分布在工作节点上。需要检查相应工作节点的进程。我们可以从spark history server web UI获取有关执行器的信息以及它在何处启动的信息