Hadoop 配置单元无法创建映射/减少作业

Hadoop 配置单元无法创建映射/减少作业,hadoop,mapreduce,hive,diagnostics,Hadoop,Mapreduce,Hive,Diagnostics,我使用了hive-0.11.0、hadoop 2.0.3和mysql 5.6作为元数据 我可以成功地运行SELECT*FROM记录这样的语句,它不会创建映射/减少任务 但是当我尝试运行SELECT*FROM records where year='1949'时,map/reduce任务总是出现一些错误 hadoop为我提供了诊断: 应用程序应用程序_1382680612829_0136失败1次,原因是appattempt的AM容器_1382680612829_0136_u000001已退出,退出

我使用了hive-0.11.0、hadoop 2.0.3和mysql 5.6作为元数据

我可以成功地运行SELECT*FROM记录这样的语句,它不会创建映射/减少任务

但是当我尝试运行SELECT*FROM records where year='1949'时,map/reduce任务总是出现一些错误

hadoop为我提供了诊断: 应用程序应用程序_1382680612829_0136失败1次,原因是appattempt的AM容器_1382680612829_0136_u000001已退出,退出代码为:-1000,原因是:java.io.FileNotFoundException:File/tmp/hadoop/nm local dir/filecache在org.apache.hadoop.fs.RawLocalFileSystem.getFileStatusRawLocalFileSystem.java:492 atorg.apache.hadoop.fs.FileSystem.primitiveMkdirFileSystem.java:996在org.apache.hadoop.fs.DelegateToFileSystem.mkdirDelegateToFileSystem.java:150在org.apache.hadoop.fs.FilterFs.mkdirFilterFs.java:187在org.apache.hadoop.fs.FileContext$4.nextFileContext.java:730在org.apache.hadoop.fs.FileContext$4.nextFileContext.java:726在org.apache.hadoop.fs.FileContext$FSLinkResolver.resolveFileContext.java:2379在org.apache.hadoop.fs.FileContext.mkdirFileContext.java:726在org.apache.hadoop.yarn.util.FSDownload.createDirFSDownload.java:88在org.apache.hadoop.yarn.util.FSDownload.callFSDownload.java:274在org.apache.hadoop.yarn.util.FSDownload.callFSDownload.java:51在java:303 at java.util.concurrent.FutureTask.java:138 at java.util.concurrent.Executors$RunnableAdapter.callExecutors.java:441 at java.util.concurrent.FutureTask$Sync.innerRunFutureTask.java:303 at java.util.concurrent.FutureTask.runFutureTask.java:138 atjava.util.concurrent.ThreadPoolExecutor$Worker.runTaskThreadPoolExecutor.java:886位于java.util.concurrent.ThreadPoolExecutor$Worker.runThreadPoolExecutor.java:908位于java.lang.Thread.runThread.java:662。尝试失败。。应用程序失败


我该怎么办?总之,感谢您,作为他们推荐的创建父文件夹的解决方案,还有一个补丁应该在2.0.3版本中修复

Tom White添加了一条评论-30/11/12 21:36这通过 如果父目录不存在,则创建它们。没有 修正10次测试失败4次;用我没看到的修复 失败

这似乎是我在hadoop bugs数据库中发现的最类似的问题


它还与java.io.filenotfound有关,如果您想看一看,它表明您是java.io.filenotfound,关于File/tmp/hadoop-hadoop/nm-local-dir/filecache,它是环境配置中的一个元素吗?我不确定。我在蜂巢外壳中运行set-v。并获取一行,如hadoop.tmp.dir=/tmp/hadoop-${user.name}。是吗@我不确定。我已经把我找到的关于你所得到的那个例外的最好的参考资料的摘要贴出来作为答案。您的hadoop 2.0.3安装是最后一个版本吗?我发现这是因为我没有设置hadoop tmp控制器,所以它是在/tmp中创建的,并被系统删除。因此,我尝试重新格式化hadoop,并将其修复