Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark Spark执行器-它们是java进程吗?_Apache Spark - Fatal编程技术网

Apache spark Spark执行器-它们是java进程吗?

Apache spark Spark执行器-它们是java进程吗?,apache-spark,Apache Spark,我是新手。当我尝试在客户机模式下使用3个执行器运行spark submit时,我希望在执行ps-ef时显示3个java进程(因为有3个执行器) $SPARK_HOME/bin/spark-submit --num-executors 3 --class AverageCalculation --master local[1] /home/customer/SimpleETL/target/SimpleETL-0.1.jar hdfs://node1:9000/home/customer/Simp

我是新手。当我尝试在客户机模式下使用3个执行器运行spark submit时,我希望在执行
ps-ef时显示3个java进程(因为有3个执行器)

$SPARK_HOME/bin/spark-submit --num-executors 3 --class AverageCalculation --master local[1] /home/customer/SimpleETL/target/SimpleETL-0.1.jar hdfs://node1:9000/home/customer/SimpleETL/standard_input.csv

但是,我没有看到3个java进程。我的理解是,每个执行器进程都是一个java进程。请告知。谢谢。

因为您使用的是
本地
模式(
--master local[1]
)执行器设置不适用。在这种情况下,spark只启动一个JVM来模拟所有组件,并将
local
definition(1)中指定的线程数分配为执行线程


在其他模式中,执行器是独立的JVM实例。

因为您使用
本地
模式(
--master local[1]
)执行器设置不适用。在这种情况下,spark只启动一个JVM来模拟所有组件,并将
local
definition(1)中指定的线程数分配为执行线程


在其他模式中,执行器是独立的JVM实例。

在Spark中,有主节点和工作节点。执行器在其自己的java进程中的工作节点上运行

spark submit
中,您可以添加
--deploy mode集群
,并查看执行器在其自己的JVM实例中的工作节点上运行


您可以查看Apache Spark的详细工作流程。

在Spark中,有主节点和工作节点。执行器在其自己的java进程中的工作节点上运行

/home/spark/spark-2.2.1-bin-hadoop2.7/bin/spark-submit --class org.apache.spark.examples.SparkPi \
    --num-executors 1000 \
    --master yarn --deploy-mode cluster --driver-memory 4g --executor-memory 2g --executor-cores 1 \
    --queue default /home/spark/spark-2.2.1-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.2.1.jar
spark submit
中,您可以添加
--deploy mode集群
,并查看执行器在其自己的JVM实例中的工作节点上运行

您可以查看ApacheSpark的详细工作流程

/home/spark/spark-2.2.1-bin-hadoop2.7/bin/spark-submit --class org.apache.spark.examples.SparkPi \
    --num-executors 1000 \
    --master yarn --deploy-mode cluster --driver-memory 4g --executor-memory 2g --executor-cores 1 \
    --queue default /home/spark/spark-2.2.1-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.2.1.jar
~ 我执行了上面的命令。并检查了ps-ef | grep java。但是我没有看到很多java进程。有什么简单的方法来识别遗嘱执行人吗

~
我执行了上面的命令。并检查了ps-ef | grep java。但是我没有看到很多java进程。有什么简单的方法可以识别执行者吗?

每个执行者都是一个java进程。每个执行器包含一个jvm

jps

java进程的数量与执行者的数量相同。如果执行器分布在工作节点上。需要检查相应工作节点的进程。我们可以从spark history server web UI获取有关执行器的信息以及它在何处启动。

每个执行器都是一个java进程。每个执行器包含一个jvm

jps
java进程的数量与执行者的数量相同。如果执行器分布在工作节点上。需要检查相应工作节点的进程。我们可以从spark history server web UI获取有关执行器的信息以及它在何处启动的信息