Hadoop中缺少块

Hadoop中缺少块,hadoop,Hadoop,我正在尝试在Hadoop中运行一个wordcount作业。由于前面的错误,我不得不关闭NameNode的安全模式。但是,现在在尝试运行作业时,出现以下错误: 14/08/06 14:49:08 INFO mapreduce.Job: map 1% reduce 0% 14/08/06 14:49:25 INFO mapreduce.Job: Task Id : attempt_1407336345567_0002_m_000158_0, Status : FAILED Error: org.a

我正在尝试在Hadoop中运行一个wordcount作业。由于前面的错误,我不得不关闭NameNode的安全模式。但是,现在在尝试运行作业时,出现以下错误:

14/08/06 14:49:08 INFO mapreduce.Job:  map 1% reduce 0%
14/08/06 14:49:25 INFO mapreduce.Job: Task Id : attempt_1407336345567_0002_m_000158_0, Status : FAILED
Error: org.apache.hadoop.hdfs.BlockMissingException: Could not obtain block: BP-971868671-192.168.50.2-1406571670535:blk_1073743276_2475 file=/wikidumps/enwiki-20130904-pages-meta-history3.xml-p000032706p000037161
    at org.apache.hadoop.hdfs.DFSInputStream.chooseDataNode(DFSInputStream.java:838)
    at org.apache.hadoop.hdfs.DFSInputStream.blockSeekTo(DFSInputStream.java:526)
    at org.apache.hadoop.hdfs.DFSInputStream.readWithStrategy(DFSInputStream.java:749)
    at org.apache.hadoop.hdfs.DFSInputStream.read(DFSInputStream.java:793)
    at java.io.DataInputStream.read(DataInputStream.java:100)
    at org.apache.hadoop.util.LineReader.readDefaultLine(LineReader.java:211)
    at org.apache.hadoop.util.LineReader.readLine(LineReader.java:174)
    at org.apache.hadoop.mapreduce.lib.input.LineRecordReader.nextKeyValue(LineRecordReader.java:164)
    at org.apache.hadoop.mapred.MapTask$NewTrackingRecordReader.nextKeyValue(MapTask.java:532)
    at org.apache.hadoop.mapreduce.task.MapContextImpl.nextKeyValue(MapContextImpl.java:80)
    at org.apache.hadoop.mapreduce.lib.map.WrappedMapper$Context.nextKeyValue(WrappedMapper.java:91)
    at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:144)
    at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:763)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:339)
    at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:162)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:415)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491)
    at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:157)

日志文件未显示任何特定错误。有人知道这个错误的原因吗?提前谢谢

一,。检查文件是否实际位于HDFS文件系统上。2.跑3.准确描述您遇到的“以前的错误”以及手动关闭安全模式的原因(因为这可能导致文件系统损坏)。如果没有更多信息,您不可能在这里得到有用的响应。这就是我得到的错误:有点难以解释,但我将我的“dfs.datanode.data.dir”指向连接到此实例的外部卷。其目的是确定Lustre文件系统上的Hadoop性能,该卷是我能找到的最接近共享文件系统的卷。在这样做之后,首先我得到了该链接中指出的错误,现在是这个。你能通过HDFS web界面访问该文件吗?从外观上看,Hadoop在节点192.168.50.2上查找它,因此您应该能够在那里看到它。我不确定你所说的外部卷是什么意思:IIRC,每个DataNode都需要自己的本地文件夹来存储数据,我认为你不能让它们都指向同一个外部卷/装入点。