hadoop创建了找不到的目录
我使用以下hadoop命令创建一个目录hadoop创建了找不到的目录,hadoop,mkdir,Hadoop,Mkdir,我使用以下hadoop命令创建一个目录 hdfs dfs -mkdir /tmp/testing/morehere1 我得到以下信息: log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory). log4j:警告请正确初始化log4j系统 由于不理解错误,我再次运行命令,返回以下消息: log4j:WARN No appenders c
hdfs dfs -mkdir /tmp/testing/morehere1
我得到以下信息:
log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory).
log4j:警告请正确初始化log4j系统
由于不理解错误,我再次运行命令,返回以下消息:
log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory).
log4j:WARN Please initialize the log4j system properly.
mkdir: `/tmp/testing/morehere2': File exists
然后,当我试图转到刚刚创建的目录时,它不在那里
cd /tmp/testing/morehere2
-bash: cd: /tmp/testing/morehere2: No such file or directory
你知道我做错了什么吗?记住,HDFS和本地文件系统是有区别的。您发布的第一行在HDFS中创建了一个目录,而不是在本地系统上。所以你不能直接cd到它或ls它或任何东西;如果你想访问它,你必须通过hadoop。记录到HDFS也是非常罕见的,因为文件附件从未得到很好的支持。我怀疑您实际上希望在本地创建该目录,这可能是您的问题的一部分。请记住,HDFS和本地文件系统之间存在差异。您发布的第一行在HDFS中创建了一个目录,而不是在本地系统上。所以你不能直接cd到它或ls它或任何东西;如果你想访问它,你必须通过hadoop。记录到HDFS也是非常罕见的,因为文件附件从未得到很好的支持。我怀疑您实际上希望在本地创建该目录,这可能是您的问题的一部分
hdfs dfs -mkdir /tmp/testing/morehere1
此命令在hdfs中创建了一个目录。不要担心log4j警告。该命令已成功创建目录。这就是为什么出现错误mkdir:/tmp/testing/morehere2':第二次尝试该命令时,文件存在
以下命令将不起作用,因为目录不是在本地文件系统中创建的,而是在hdfs中创建的
cd /tmp/testing/morehere2
使用以下命令检查hdfs中创建的目录:
hdfs dfs -ls /tmp/testing
您应该能够在那里看到新目录
关于log4j警告:您可以忽略它,因为它不会导致hadoop命令失败。但如果您想更正它,可以向log4j.properties添加一个文件追加器
此命令在hdfs中创建了一个目录。不要担心log4j警告。该命令已成功创建目录。这就是为什么出现错误mkdir:/tmp/testing/morehere2':第二次尝试该命令时,文件存在
以下命令将不起作用,因为目录不是在本地文件系统中创建的,而是在hdfs中创建的
cd /tmp/testing/morehere2
使用以下命令检查hdfs中创建的目录:
hdfs dfs -ls /tmp/testing
您应该能够在那里看到新目录
关于log4j警告:您可以忽略它,因为它不会导致hadoop命令失败。但如果您想更正它,可以向log4j.properties添加一个文件追加器 如果您的MR代码以前运行良好,现在显示此log4j错误,请重新启动所有hadoop守护进程。它可能会像解决我的问题一样解决您的问题:)如果您的MR代码以前运行良好,现在显示此log4j错误,请重新启动所有hadoop守护进程。它可能会像解决我的问题一样解决你的问题:)它说文件存在
但不是目录。你能重新检查文件吗?它说文件存在,但目录不存在。你能重新检查一下文件吗?