Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/12.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services hadoop如何强制执行作业不';t共享CPU_Amazon Web Services_Hadoop_Hadoop2_Emr_Amazon Emr - Fatal编程技术网

Amazon web services hadoop如何强制执行作业不';t共享CPU

Amazon web services hadoop如何强制执行作业不';t共享CPU,amazon-web-services,hadoop,hadoop2,emr,amazon-emr,Amazon Web Services,Hadoop,Hadoop2,Emr,Amazon Emr,当hadoop将vcore分配给特定容器时,它如何确保其他容器不使用该cpu?容器是否以独占方式访问cpu,或者如果cpu有空闲周期,其他容器是否可以共享cpu 我这样问是因为在几乎所有的AWS节点中,内存是VCPU数量的4倍。例如,对于m4.large,它有2CPUs和8GB内存,如果我们将容器大小设置为2GB,则会得到4个容器。但是由于我们只有2个CPU,2个CPU如何在4个容器之间分配

当hadoop将vcore分配给特定容器时,它如何确保其他容器不使用该cpu?容器是否以独占方式访问cpu,或者如果cpu有空闲周期,其他容器是否可以共享cpu

我这样问是因为在几乎所有的AWS节点中,内存是VCPU数量的4倍。例如,对于m4.large,它有2CPUs和8GB内存,如果我们将容器大小设置为2GB,则会得到4个容器。但是由于我们只有2个CPU,2个CPU如何在4个容器之间分配