如何运行HDFS中的MapReduce JAR文件?

如何运行HDFS中的MapReduce JAR文件?,jar,mapreduce,Jar,Mapreduce,我正在尝试运行一个MapReduce代码,它存在于Hadoop文件系统中传统的运行方式: hadoop jar[本地jar文件的路径][主类][参数]。。。 [本地jar文件的路径]-我的jar文件是HDFS格式的。请参阅。所有hadoop命令都由bin/hadoop脚本调用。为了执行jar文件,它使用RunJar类,该类具有以下代码段 int firstArg = 0; String fileName = args[firstArg++]; File file = new File(fileN

我正在尝试运行一个MapReduce代码,它存在于Hadoop文件系统中
传统的运行方式:
hadoop jar[本地jar文件的路径][主类][参数]。。。
[本地jar文件的路径]-我的jar文件是HDFS格式的。

请参阅。所有hadoop命令都由bin/hadoop脚本调用。为了执行jar文件,它使用RunJar类,该类具有以下代码段

int firstArg = 0;
String fileName = args[firstArg++];
File file = new File(fileName);

其中fileName指向jarFile。

将jar文件保存在HDFS中有什么具体原因吗?您可以尝试复制jar文件,然后按常规方式运行。客户端已禁用边缘节点访问,我们只能访问Hadoop环境。没有授予Unix系统权限。所以在我的情况下,没有办法执行HDFS中的Map Reduce?