Configuration 在哪里指定从节点上hadoop的根目录?

Configuration 在哪里指定从节点上hadoop的根目录?,configuration,hadoop,Configuration,Hadoop,我需要用一个namenode和两个datanodes设置一个hadoop/hdfs集群。我知道conf/slaves文件列出了数据节点正在运行的机器。但我如何指定hadoop/hdfs在从属节点上本地安装的位置呢?还有要在那里启动的用户帐户hdfs 编辑:在日志文件中,当我试图启动dfs.sh 错误org.apache.hadoop.hdfs.server.namenode.namenode:java.lang.IllegalArgumentException:不包含有效的主机:端口授权:文件:

我需要用一个
namenode
和两个
datanode
s设置一个
hadoop/hdfs
集群。我知道
conf/slaves
文件列出了数据节点正在运行的机器。但我如何指定hadoop/hdfs在从属节点上本地安装的位置呢?还有要在那里启动的用户帐户
hdfs

编辑:在日志文件中,当我试图
启动dfs.sh

错误org.apache.hadoop.hdfs.server.namenode.namenode:java.lang.IllegalArgumentException:不包含有效的主机:端口授权:文件:///


用户应与主节点上的用户相同。通过更改
hadoop site.xml

中的
dfs.data.dir
节点,可以修改实际数据的位置。感谢您的评论,我要问的是安装
hadoop
的位置,而不是应该存储数据文件。您可以指定hadoop\u HOME env。variableit警告
$HADOOP\u HOME已弃用
,它也不起作用,并显示相同的错误消息。我使用的
hadoop 1.0.3
说:“发行版的根目录称为hadoop_HOME。集群中的所有机器通常都有相同的hadoop_HOME路径。”我可以这样设置集群环境(版本1.0.3)