Hadoop 带有HAR文件输入的MapReduce作业
我创建了一个包含多个小输入文件的Hadoop 带有HAR文件输入的MapReduce作业,hadoop,mapreduce,hdfs,har,Hadoop,Mapreduce,Hdfs,Har,我创建了一个包含多个小输入文件的HAR文件。对于使用单个输入文件运行map reduce作业,命令如下: hadoop jar 但是,如果上述是一个HAR文件,那么命令是什么,使得HAR文件的所有内容都被视为输入?如果输入是一个HAR文件,那么在输入的地方必须给出以下内容 har:///hdfs path to har file 由于hadoop归档文件将作为文件系统公开,mapreduce将能够使用hadoop归档文件中的所有文件作为输入。“hadoop归档文件将作为文件系统公开”是这里值得
HAR
文件。对于使用单个输入文件运行map reduce作业,命令如下:
hadoop jar
但是,如果上述
是一个HAR文件,那么命令是什么,使得HAR
文件的所有内容都被视为输入?如果输入是一个HAR文件,那么在输入的地方必须给出以下内容
har:///hdfs path to har file
由于hadoop归档文件将作为文件系统公开,mapreduce将能够使用hadoop归档文件中的所有文件作为输入。“hadoop归档文件将作为文件系统公开”是这里值得注意的一点。谢谢