Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python Hadoop MapReduce受使用不同硬件的影响_Python_Hadoop_Mapreduce_Cluster Computing - Fatal编程技术网

Python Hadoop MapReduce受使用不同硬件的影响

Python Hadoop MapReduce受使用不同硬件的影响,python,hadoop,mapreduce,cluster-computing,Python,Hadoop,Mapreduce,Cluster Computing,我使用Hadoop已经有一段时间了,使用Python来执行流式MapReduce任务 我将有2个快速服务器,我想添加一些不同规格的其他硬件。我想知道向集群中添加速度较慢的机器会不会减慢速度 工作的拆分是否能够适应节点的处理能力。 工作是否在一个节点上平均分配,或者是在机器完成最后一个任务时发送任务,是否有方法控制这些 谢谢 马丁可能的重复可能的重复可能的重复

我使用Hadoop已经有一段时间了,使用Python来执行流式MapReduce任务

我将有2个快速服务器,我想添加一些不同规格的其他硬件。我想知道向集群中添加速度较慢的机器会不会减慢速度

工作的拆分是否能够适应节点的处理能力。 工作是否在一个节点上平均分配,或者是在机器完成最后一个任务时发送任务,是否有方法控制这些

谢谢 马丁

可能的重复可能的重复可能的重复