Java Hadoop:在可用节点之间分发映射器

Java Hadoop:在可用节点之间分发映射器,java,hadoop,mapreduce,Java,Hadoop,Mapreduce,我有一个包含hdfs上k个文件路径的文件,我将它作为输入传递给hadoop,hadoop为每个文件路径启动一个k映射程序。每个映射程序都应该使用定义的文件名处理该文件。我的问题是,是否有任何方法可以确保hadoop将使用所有可用节点来处理k映射程序,而不是在单个节点上逐个运行所有k节点?我需要这个,因为文件处理需要花费大量的时间,我真的需要并行处理文件,但不是hadoop自己决定的方式 谢谢为什么不从驱动程序读取文件并动态设置路径?好的,但它如何帮助我使用所有可用节点进行文件处理?它不会使用所有

我有一个包含hdfs上k个文件路径的文件,我将它作为输入传递给hadoop,hadoop为每个文件路径启动一个k映射程序。每个映射程序都应该使用定义的文件名处理该文件。我的问题是,是否有任何方法可以确保hadoop将使用所有可用节点来处理k映射程序,而不是在单个节点上逐个运行所有k节点?我需要这个,因为文件处理需要花费大量的时间,我真的需要并行处理文件,但不是hadoop自己决定的方式


谢谢

为什么不从驱动程序读取文件并动态设置路径?好的,但它如何帮助我使用所有可用节点进行文件处理?它不会使用所有节点读取包含路径的文件。但假设这是一个文件,这并不重要。一旦从文件中为作业设置了路径,它将使用所有可用的节点