Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop 以不同方式设置每个执行器内存(Spark单机版)_Hadoop_Apache Spark - Fatal编程技术网

Hadoop 以不同方式设置每个执行器内存(Spark单机版)

Hadoop 以不同方式设置每个执行器内存(Spark单机版),hadoop,apache-spark,Hadoop,Apache Spark,在我们的集群中,datanodes没有相同的硬件规格。例如: dnode1 -> 4 GB RAM dnode2 -> 15 GB RAM dnode3 -> 30 GB RAM Executor in dnode1 will use around 4 GB RAM Executor in dnode2 will use around 15 GB RAM Executor in dnode3 will use around 30 GB RAM 提交spark作业时,要使

在我们的集群中,datanodes没有相同的硬件规格。例如:

dnode1 -> 4  GB RAM 
dnode2 -> 15 GB RAM
dnode3 -> 30 GB RAM
Executor in dnode1 will use around 4 GB RAM
Executor in dnode2 will use around 15 GB RAM
Executor in dnode3 will use around 30 GB RAM
提交spark作业时,要使用每个datanode,我必须将spark.executor.memory设置为每个datanode都能承受的值。然而,我想知道是否有一种方法可以独立地设置每个执行器进程的内存使用情况?例如:

dnode1 -> 4  GB RAM 
dnode2 -> 15 GB RAM
dnode3 -> 30 GB RAM
Executor in dnode1 will use around 4 GB RAM
Executor in dnode2 will use around 15 GB RAM
Executor in dnode3 will use around 30 GB RAM

每个进程的执行器大小相同(由应用程序指定)。您需要的是每个工人可用的相同数量的内核/内存,然后选择每个节点上有多少工人(可以针对单个工人进行定制)。您如何选择每个工人节点中的执行器数量?每个工人进程每个应用程序将有一个执行器。但是从属节点可以运行多个工作节点。