Apache spark 为什么spark.executor.instances不起作用?
我正在使用40个r4.2x大型从机和一个具有相同类型主机的主机。 r4.2xlarge有8个内核,带有61GB内存 给定的设置包括:Apache spark 为什么spark.executor.instances不起作用?,apache-spark,Apache Spark,我正在使用40个r4.2x大型从机和一个具有相同类型主机的主机。 r4.2xlarge有8个内核,带有61GB内存 给定的设置包括: spark.executor.280实例 spark.executor.cores 1 spark.executor.memory 8G spark.driver.memory 40G spark.Thread.executor.memoryOverhead 10240 spark.DynamicLocation.enabled错误 当观察一个作业在集群的神经
- spark.executor.280实例
- spark.executor.cores 1
- spark.executor.memory 8G
- spark.driver.memory 40G
- spark.Thread.executor.memoryOverhead 10240
- spark.DynamicLocation.enabled错误
- warn.scheduler.maximum-allocation-mb 54272
- warn.scheduler.maximum-allocation-vcores 128
- 纱线.nodemanager.resource.cpu-vcores 8
- warn.nodemanager.resource.memory-mb 54272
yarn.scheduler.maximum-allocation-mb
yarn.scheduler.maximum-allocation-vcores
yarn.nodemanager.resource.cpu-vcores
yarn.nodemanager.resource.memory-mb
请检查warn site.xml中的参数由于warn.scheduler.maximum-allocation-vcores 128,它似乎无法为每个节点分配最多7个执行器。但我仍然认为它可以分配3个执行器/节点,即40*3=120<128。知道吗?你必须增加记忆值。你能试着用更高的值吗?我想知道这种情况是怎么发生的。根据配置,我认为一个从节点最多可以使用54G内存。奇怪的是,执行人,记忆头是10G。但executor.memory是8G。所以,根据执行人18G。因此,三个执行器实际上需要的不仅仅是warn.nodemanager.resource.memory-mb 54272。这就是为什么只有两名遗嘱执行人在场。这是对的吗?是的,你是对的。而且开销值看起来太大了。可以减小此值。