Hadoop 如何决定运行作业的数据节点

Hadoop 如何决定运行作业的数据节点,hadoop,mapreduce,hdfs,Hadoop,Mapreduce,Hdfs,我需要覆盖哪个类,这样我就可以决定具有相同作业Id的作业进入相同系统的核心I.e。数据节点 我对Hadoop堆栈有点陌生,所以这可能太容易了,但我并没有在互联网上找到任何关于这方面的sodil 提前感谢。您的hadoop版本是什么?请任何人回答这个问题,或者提供一些链接。。。

我需要覆盖哪个类,这样我就可以决定具有相同作业Id的作业进入相同系统的核心I.e。数据节点

我对Hadoop堆栈有点陌生,所以这可能太容易了,但我并没有在互联网上找到任何关于这方面的sodil


提前感谢。

您的hadoop版本是什么?请任何人回答这个问题,或者提供一些链接。。。