Hadoop 无法使用start-dfs.sh启动守护程序

Hadoop 无法使用start-dfs.sh启动守护程序,hadoop,hdfs,cloudera,Hadoop,Hdfs,Cloudera,我们正在使用cloudera的cdh4-0.0发行版。我们无法使用下面的命令启动守护进程 >start-dfs.sh Starting namenodes on [localhost] hduser@localhost's password: localhost: mkdir: cannot create directory `/hduser': Permission denied localhost: chown: cannot access `/hduser/hduser': No

我们正在使用cloudera的cdh4-0.0发行版。我们无法使用下面的命令启动守护进程

>start-dfs.sh
Starting namenodes on [localhost]
hduser@localhost's password: 
localhost: mkdir: cannot create directory `/hduser': Permission denied
localhost: chown: cannot access `/hduser/hduser': No such file or directory
localhost: starting namenode, logging to /hduser/hduser/hadoop-hduser-namenode-canberra.out
localhost: /home/hduser/work/software/cloudera/hadoop-2.0.0-cdh4.0.0/sbin/hadoop-daemon.sh: line 150: /hduser/hduser/hadoop-hduser-namenode-canberra.out: No such file or directory
localhost: head: cannot open `/hduser/hduser/hadoop-hduser-namenode-canberra.out' for reading: No such file or directory

看起来你在用柏油球

尝试在
etc/HADOOP/HADOOP env.sh
配置文件中设置一个覆盖默认的
HADOOP\u LOG\u DIR
位置,如下所示:

export HADOOP_LOG_DIR=/path/to/hadoop/extract/logs/
然后重试
sbin/start dfs.sh
,它应该可以工作

在打包环境中,通过相同的
HADOOP\u LOG\u DIR
env-var,启动-停止脚本被调整为为为每种类型的服务提供一个唯一的位置,因此它们没有您看到的相同问题

如果您使用的是软件包,请不要使用这些脚本,只需执行以下操作:

service hadoop-hdfs-namenode start
service hadoop-hdfs-datanode start
service hadoop-hdfs-secondarynamenode start

请查看错误消息。没有创建文件夹等的权限?该产品以hduser的身份安装,并以hduser的身份运行,我们检查了所有HADOOP_*配置参数,它们似乎都正常。是否有方法在命令运行时打印调试日志。您似乎没有检查sshhduser@localhost在没有密码的情况下工作(据我所知,文档中提到了公钥身份验证)。