Hadoop 纱线错误:无法在任何配置的本地目录中初始化应用程序日志目录

Hadoop 纱线错误:无法在任何配置的本地目录中初始化应用程序日志目录,hadoop,configuration,yarn,Hadoop,Configuration,Yarn,我在使用MapReduce时遇到错误: Not able to initialize app-log directories in any of the configured local directories 这是my-site.xml: <configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanag

我在使用MapReduce时遇到错误:

Not able to initialize app-log directories in any of the configured local directories
这是my-site.xml:

<configuration>

<!-- Site specific YARN configuration properties -->

<property>
  <name>yarn.nodemanager.resource.memory-mb</name>
    <value>2200</value>
      <description>Amount of physical memory, in MB, that can be allocated for containers.</description>
      </property>

<property>
  <name>yarn.scheduler.minimum-allocation-mb</name>
    <value>500</value>
    </property>

<property>
  <name>yarn.scheduler.maximum-allocation-mb</name>
      <value>2000</value>
          </property>

<property>
  <name>yarn.scheduler.minimum-allocation-vcores</name>
        <value>1</value>
                  </property>

<property>
  <name>yarn.scheduler.maximum-allocation-vcores</name>
          <value>2</value>
                            </property>

<property>
        <name>yarn.nodemanager.disk-health-checker.enable</name>
                <value>false</value>
                </property>

<property>
      <name>yarn.log-aggregation-enable</name>
            <value>true</value>
              </property>
<property>
 <name>yarn.nodemanager.local-dirs</name>
 <value>/tmp/yarn_logs</value>
 </property>

<property>
 <name>app-log directories</name>
  <value>/tmp/yarn_logs</value>
   </property>

</configuration>

warn.nodemanager.resource.memory-mb
2200
可分配给容器的物理内存量(MB)。
warn.scheduler.minimum-allocation-mb
500
warn.scheduler.maximum-allocation-mb
2000
纱线.调度器.最小分配-vcores
1.
纱线.scheduler.maximum-allocation-vcores
2.
warn.nodemanager.disk-health-checker.enable
假的
warn.log-aggregation-enable
真的
纱线.nodemanager.local-dirs
/tmp/纱线原木
应用程序日志目录
/tmp/纱线原木
正如你所见,我禁用了健康检查,以便清楚地看到问题所在

以下是我已经尝试过的:

  • 从本地目录中删除usercache目录的内容
  • 将chmod更改为777,以确保没有问题
  • 重新启动所有hadoop服务
我总是得到完全相同的错误。我真的不知道下一步该怎么办。。有什么想法吗?提前交货


PS:我已经检查过了:我的所有hadoop服务似乎都启动了。

解决方案:我只是将所有文件删除到hadoop/日志中,格式化namenode并重新启动所有内容。我的节点又恢复健康了