Hadoop fs-ls抛出错误

Hadoop fs-ls抛出错误,hadoop,mapreduce,hdfs,Hadoop,Mapreduce,Hdfs,我面临的问题是当我发出这个命令时 “hadoop fs-ls”,它抛出这样一条消息,“ls:`.”:没有这样的文件或目录 “ 作为参考,我的“jps”命令的输出结果是 18276 SecondaryNameNode 19684 Jps 17942 NameNode 18566 NodeManager 18441 ResourceManager 首先,您应该运行一个存储数据的数据节点,否则您将无法处理hadoop fs(文件系统) 尝试暂停所有服务 $start-all-sh $jps 确保数

我面临的问题是当我发出这个命令时 “hadoop fs-ls”,它抛出这样一条消息,“ls:`.”:没有这样的文件或目录 “

作为参考,我的“jps”命令的输出结果是

18276 SecondaryNameNode
19684 Jps
17942 NameNode
18566 NodeManager
18441 ResourceManager

首先,您应该运行一个存储数据的数据节点,否则您将无法处理hadoop fs(文件系统)

尝试暂停所有服务

$start-all-sh
$jps
确保数据节点正在运行,并且没有任何障碍物阻挡它

然后试试看

$hadoop fs -ls /

当您不向这个
hadoop fs-ls
命令传递任何参数时,它尝试列出的默认hdfs目录是
/user/{your_user_name}

您案例中的问题可能是此hdfs目录不存在

尝试运行
hadoop fs-ls/user/
查看为哪些用户创建了哪些目录

您也可以只创建用户的hdfs默认目录。运行以下命令将修复您的错误:


hadoop fs-mkdir-p/user/$(whoami)

可能重复或@cricket\u 007是的,我试过了。。。是的,你发布的重复链接解决了我的问题。。。谢谢大家…这需要作为
hdfs
hadoop
用户运行,而不是当前登录的用户,具体取决于安装过程。。是的,问题是hadoop没有目录,所以使用-mkdir语句创建它。在那之后,事情开始运作…虽然我认为stop-all.sh或单独停止hdfs和纱线是必要的,否则会引发一些问题。是的。目录不见了。。。我尝试了上面的步骤,但没有解决错误…@GauravADubey您是否确保数据节点正在运行,并且格式化了namenode:hadoop namenode-format@MosabShaheen是的,我做到了。一切顺利完成。在我使用hadoop fs-mkdir-p/user创建目录后,您提到的步骤就成功了/mysystemname@GauravADubey伟大的当我安装hadoop时,在/user/下已经有一个文件夹保存着用户名。但是不是必须使用根目录下的文件夹来进行测试,这就是为什么我写:$hadoop fs-ls/