Configuration hadoop/name处于不一致状态:存储目录不存在或不可访问

Configuration hadoop/name处于不一致状态:存储目录不存在或不可访问,configuration,hadoop,Configuration,Hadoop,起初我不能让JobTracker和TaskTracker运行,然后我用xml文件中的hdmaster替换了所有IP,如10.112.57.243,并将mapred.job.tracker更改为hdfs://one。后来我在hadoop运行时格式化了namenode,然后它变成了一场灾难。我在日志中发现错误消息作为标题,然后我甚至尝试删除/tmp和hdfs-tmp中的所有内容,然后重新启动,仍然是这样。那么,我怎样才能消除这个错误,让namenode再次运行呢?非常感谢 core-site.xml

起初我不能让JobTracker和TaskTracker运行,然后我用xml文件中的hdmaster替换了所有IP,如10.112.57.243,并将mapred.job.tracker更改为hdfs://one。后来我在hadoop运行时格式化了namenode,然后它变成了一场灾难。我在日志中发现错误消息作为标题,然后我甚至尝试删除/tmp和hdfs-tmp中的所有内容,然后重新启动,仍然是这样。那么,我怎样才能消除这个错误,让namenode再次运行呢?非常感谢

core-site.xml

    <configuration>
    <property>
     <name>fs.default.name</name>
      <value>hdfs://hdmaster:50000</value>
    </property>
    <property>
      <name>hadoop.tmp.dir</name>
     <value>/home/ubuntu/hadoop/tmp</value>
    </property>
    <property>
    <name>dfs.replication</name>
    <value>2</value>
    <description>Default block replication. The actual number of replications can be specified when the file is created. The default is used if replication is not specified in create time.</description>
    </property>
    </configuration>
    <configuration>

    <property>
      <name>hadoop.tmp.dir</name>
      <value>/home/ubuntu/hadoop/tmp</value>
    </property>

    <property>
      <name>fs.default.name</name>
      <value>hdfs://hdmaster:50000</value>
    </property>

    <property>
      <name>mapred.job.tracker</name>
      <value>hdfs://hdmaster:50001</value>
    </property>

    </configuration>

fs.default.name
hdfs://hdmaster:50000
hadoop.tmp.dir
/home/ubuntu/hadoop/tmp
dfs.replication
2.
默认块复制。创建文件时,可以指定实际的复制次数。如果在创建时未指定复制,则使用默认值。
hadoop-site.xml

    <configuration>
    <property>
     <name>fs.default.name</name>
      <value>hdfs://hdmaster:50000</value>
    </property>
    <property>
      <name>hadoop.tmp.dir</name>
     <value>/home/ubuntu/hadoop/tmp</value>
    </property>
    <property>
    <name>dfs.replication</name>
    <value>2</value>
    <description>Default block replication. The actual number of replications can be specified when the file is created. The default is used if replication is not specified in create time.</description>
    </property>
    </configuration>
    <configuration>

    <property>
      <name>hadoop.tmp.dir</name>
      <value>/home/ubuntu/hadoop/tmp</value>
    </property>

    <property>
      <name>fs.default.name</name>
      <value>hdfs://hdmaster:50000</value>
    </property>

    <property>
      <name>mapred.job.tracker</name>
      <value>hdfs://hdmaster:50001</value>
    </property>

    </configuration>

hadoop.tmp.dir
/home/ubuntu/hadoop/tmp
fs.default.name
hdfs://hdmaster:50000
mapred.job.tracker
hdfs://hdmaster:50001
mapred-site.xml

    <configuration>
    <property>
      <name>mapred.job.tracker</name>
      <value>hdfs://hdmaster:50001</value>
    </property>
    <property>
     <name>mapred.system.dir</name>
     <value>/home/ubuntu/hadoop/system</value>
     </property>
    <property>
      <name>mapred.local.dir</name>
     <value>/home/ubuntu/hadoop/var</value>
    </property>
    </configuration>

mapred.job.tracker
hdfs://hdmaster:50001
mapred.system.dir
/home/ubuntu/hadoop/system
mapred.local.dir
/home/ubuntu/hadoop/var

我记得是在我lsof-I:500xx并终止了该进程之后。似乎一切都搞砸了。正确地遵循这个链接。希望你能做到。谢谢,我已经从scracth XD开始了