hadoop hdfs指向文件:///不是hdfs://
所以我通过Cloudera Manager cdh3u5在CentOS 5上安装了Hadoop。当我运行cmd时hadoop hdfs指向文件:///不是hdfs://,hadoop,hdfs,cloudera,Hadoop,Hdfs,Cloudera,所以我通过Cloudera Manager cdh3u5在CentOS 5上安装了Hadoop。当我运行cmd时 hadoop fs-ls/ 我希望能看到这本书的内容hdfs://localhost.localdomain:8020/ 但是,它返回了文件的内容:// 现在,不用说,我可以通过 hadoop fs-lshdfs://localhost.localdomain:8020/ 但在安装其他应用程序(如Accumulo)时,Accumulo会自动检测文件中的Hadoop文件系统:///
hadoop fs-ls/
我希望能看到这本书的内容hdfs://localhost.localdomain:8020/
但是,它返回了文件的内容://
现在,不用说,我可以通过
hadoop fs-lshdfs://localhost.localdomain:8020/
但在安装其他应用程序(如Accumulo)时,Accumulo会自动检测文件中的Hadoop文件系统:///
问题是,有没有人遇到过这个问题,你们是如何解决的
我看了一下,这是一个类似的问题,但没有解决这个问题。
另外,Cloudera Manager cdh4也没有这个问题。默认情况下,Hadoop将使用本地模式。您可能需要将
fs.default.name
设置为hdfs://localhost.localdomain:8020/$HADOOP\u HOME/conf/core site.xml中的
要执行此操作,请将其添加到core site.xml
:
<property>
<name>fs.default.name</name>
<value>hdfs://localhost.localdomain:8020/</value>
</property>
fs.default.name
hdfs://localhost.localdomain:8020/
Accumulo之所以困惑,是因为它使用相同的默认配置来确定HDFS的位置。。。它默认为文件://
我们应该指定数据节点数据目录和名称节点元数据目录
dfs.name.dir
dfs.namenode.name.dir
dfs.data.dir
dfs.datanode.data.dir
fs.default.name
在core-site.xml文件中,并格式化name节点
要格式化HDFS名称节点,请执行以下操作:
hadoop名称节点-格式
输入“是”以确认格式化名称节点。重新启动HDFS服务并部署客户端配置以访问HDFS
如果您已经执行了上述步骤。确保正确部署了客户端配置,并且它指向实际的集群端点。显然,属性现在应该是fs.defaultFS
,而不是fs.default.name
,如果不格式化namenode,我们可以更改fs.defaultFS吗?