Hadoop在作业和任务级别如何处理输出文件?

Hadoop在作业和任务级别如何处理输出文件?,hadoop,mapreduce,hdfs,Hadoop,Mapreduce,Hdfs,根据权威指南,OutPutCommitter的setUpJob()将创建mapreduce输出目录,并为任务设置临时工作区。mapred.output.dir//\u临时 然后,书中说,任务级别的临时目录是在写入任务输出时创建的 以上两种说法有点令人困惑 因此,映射缩减作业基本上由许多任务组成,即映射任务和缩减任务。现在,mapreduce输出目录是写入map reduce作业最终输出的目录。现在,当map reduce作业运行每个map任务时,reduce任务将生成任务运行所在节点的本地中间文

根据权威指南,OutPutCommitter的setUpJob()将创建mapreduce输出目录,并为任务设置临时工作区。mapred.output.dir//\u临时

然后,书中说,任务级别的临时目录是在写入任务输出时创建的


以上两种说法有点令人困惑

因此,映射缩减作业基本上由许多任务组成,即映射任务和缩减任务。现在,mapreduce输出目录是写入map reduce作业最终输出的目录。现在,当map reduce作业运行每个map任务时,reduce任务将生成任务运行所在节点的本地中间文件。每个任务的本地输出(中间任务)将写入临时工作区。最后,在洗牌和其他阶段之后,这个中间输出最终会根据应用于map reduce作业的逻辑作为最终输出写入hdfs。我希望这能回答你的问题