Hadoop数据节点尚未启动

Hadoop数据节点尚未启动,hadoop,Hadoop,我使用的是Hadoop版本1.2.1。在单个节点上。当我尝试在linux上使用bin/start-all.sh启动所有节点时。数据节点未启动。在数据节点的日志文件中: " 2014-02-19 12:27:41085 INFO org.apache.hadoop.hdfs.server.datanode.datanode:STARTUP\u MSG: /************************************************************ STARTUP\u M

我使用的是Hadoop版本1.2.1。在单个节点上。当我尝试在linux上使用bin/start-all.sh启动所有节点时。数据节点未启动。在数据节点的日志文件中: "

2014-02-19 12:27:41085 INFO org.apache.hadoop.hdfs.server.datanode.datanode:STARTUP\u MSG:
/************************************************************
STARTUP\u MSG:正在启动数据节点
启动消息:主机=HH-Xeon-2/127.0.1.1
启动消息:args=[]
启动消息:版本=1.2.1
启动\u消息:生成=https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.2 -r 1503152;由“mattf”于2013年7月22日(星期一)15:23:09编制
启动消息:java=1.7.0\u 25
************************************************************/
2014-02-19 12:27:41280 INFO org.apache.hadoop.metrics2.impl.MetricsConfig:从hadoop-metrics2.properties加载的属性
2014-02-19 12:27:41294 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter:MBean用于源MetricsSystem,sub=Stats注册。
2014-02-19 12:27:41296 INFO org.apache.hadoop.metrics2.impl.metricsystemimpl:计划的快照时间为10秒。
2014-02-19 12:27:41296 INFO org.apache.hadoop.metrics2.impl.metricsystemimpl:DataNode度量系统启动
2014-02-19 12:27:41519 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter:源ugi的MBean已注册。
2014-02-19 12:27:41524警告org.apache.hadoop.metrics2.impl.metricsystemimpl:源名称ugi已存在!
2014-02-19 12:27:46472 INFO org.apache.hadoop.hdfs.server.common.Storage:无法访问存储目录/app/hadoop/tmp2
2014-02-19 12:27:46477 INFO org.apache.hadoop.hdfs.server.common.Storage:存储目录/app/hadoop/tmp2不存在
2014-02-19 12:27:46582错误org.apache.hadoop.hdfs.server.datanode.datanode:java.io.IOException:所有指定的目录都不可访问或不存在。
位于org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:139)
位于org.apache.hadoop.hdfs.server.datanode.datanode.startDataNode(datanode.java:414)
位于org.apache.hadoop.hdfs.server.datanode.datanode.(datanode.java:321)
位于org.apache.hadoop.hdfs.server.datanode.datanode.makeInstance(datanode.java:1712)
位于org.apache.hadoop.hdfs.server.datanode.datanode.InstanceDataNode(datanode.java:1651)
位于org.apache.hadoop.hdfs.server.datanode.datanode.createDataNode(datanode.java:1669)
位于org.apache.hadoop.hdfs.server.datanode.datanode.secureMain(datanode.java:1795)
位于org.apache.hadoop.hdfs.server.datanode.datanode.main(datanode.java:1812)
2014-02-19 12:27:46583 INFO org.apache.hadoop.hdfs.server.datanode.datanode:SHUTDOWN\u MSG:
"
目录确实存在,并且具有chmod 755的权限。使用777或775数据节点日志文件时,给我一个错误,即权限优先级不正确。 有人能帮我解决这个问题吗?
谢谢

您是否尝试过以DataNode的用户身份运行“ls/app/hadoop/tmp2”?谢谢您的回复。。。我已经解决了这个问题。我已经更改了tmp2目录的所有权。
2014-02-19 12:27:41,085 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting DataNode
STARTUP_MSG:   host = HH-Xeon-2/127.0.1.1
STARTUP_MSG:   args = []
STARTUP_MSG:   version = 1.2.1
STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.2 -r 1503152; compiled by 'mattf' on Mon Jul 22 15:23:09 PDT 2013
STARTUP_MSG:   java = 1.7.0_25
************************************************************/
2014-02-19 12:27:41,280 INFO org.apache.hadoop.metrics2.impl.MetricsConfig: loaded properties from hadoop-metrics2.properties
2014-02-19 12:27:41,294 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source MetricsSystem,sub=Stats registered.
2014-02-19 12:27:41,296 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Scheduled snapshot period at 10 second(s).
2014-02-19 12:27:41,296 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: DataNode metrics system started
2014-02-19 12:27:41,519 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source ugi registered.
2014-02-19 12:27:41,524 WARN org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Source name ugi already exists!
2014-02-19 12:27:46,472 INFO org.apache.hadoop.hdfs.server.common.Storage: Cannot access storage directory /app/hadoop/tmp2
2014-02-19 12:27:46,477 INFO org.apache.hadoop.hdfs.server.common.Storage: Storage directory /app/hadoop/tmp2 does not exist
2014-02-19 12:27:46,582 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: All specified directories are not accessible or do not exist.
        at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:139)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:414)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:321)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1712)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1651)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1669)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:1795)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1812)

2014-02-19 12:27:46,583 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG:
"