Ubuntu 安装配置单元后的Hadoop(本地和主机目标不匹配)

Ubuntu 安装配置单元后的Hadoop(本地和主机目标不匹配),ubuntu,hadoop,Ubuntu,Hadoop,我已经在运行ubuntu的笔记本电脑上安装了Hadoop2.2作为单节点集群,并运行了单词计数示例。之后,我安装了Hive,Hadoop开始给出错误,即 hdfs dfs -ls throws IOException : localhost is "utbuntu/127.0.1.1 and destination host is localhost:9000" 我在我的hosts文件中找到了以下两个条目 127.0.0.1 localhost 127.0.1.1 ubuntu #and so

我已经在运行ubuntu的笔记本电脑上安装了Hadoop2.2作为单节点集群,并运行了单词计数示例。之后,我安装了Hive,Hadoop开始给出错误,即

hdfs dfs -ls throws IOException : localhost is "utbuntu/127.0.1.1 and destination host is localhost:9000"
我在我的hosts文件中找到了以下两个条目

127.0.0.1 localhost
127.0.1.1 ubuntu
#and some IPv6 entries...
我的问题是,为什么配置配置单元后会出现错误?解决方案是什么?非常感谢您的帮助


谢谢

您原来的IOException中似乎有一个拼写错误“utbuntu”。你能检查一下它是正确的主机名还是复制粘贴错误吗

etc/hosts-configs花了一点时间尝试和错误来确定Hadoop 2.2.0集群设置,但我所做的是删除所有127.0.1.1对主机名的分配,并将实际IP分配给机器名,然后它就工作了。 e、 g

192.168.1.101 ubuntu

我有一个2节点集群,因此我的/etc/hosts for master(NameNode)看起来像:

127.0.0.1   localhost
#127.0.1.1  myhostname
192.168.1.100   myhostname
192.168.1.100   master
和/usr/local/hadoop/etc/hadoop/core-site.xml具有以下特性:

<property>
   <name>fs.default.name</name>
   <value>hdfs://master:9000</value>
 </property>

fs.default.name
hdfs://master:9000

需要注意的主要问题是,我已经将myhostname注释为127.0.1.1关联。

我也遇到了这个问题,因为我的机器使用端口9000启动了php fpm,所以我杀死了php fpm,然后重新启动就可以了。

尝试注释掉/etc/hosts文件(12.0.1.1)中的第二个条目,然后重试(如果失败,请重新启动hdfs服务并重试)您好,非常感谢!我对第二个条目发表了评论,但错误仍然是一样的。我认为有一些与Hive安装相关的内容。我发现了一些相关的内容,但仍然无法摆脱此错误。您好,是的,这是打字错误。您的core-site.xml条目是什么?我的意思是在哪个ip hadoop配置为侦听(ubuntu)或localhost,即fs.default.namehdfs://localhost:9000 ,这是我机器上的条目我已经用详细信息更新了我的答案。我有一个2节点集群,所以我在/usr/local/hadoop/etc/hadoop/core-site.xml:fs.default.name中hdfs://master:9000Hi 谢谢。我可以通过生成新的公钥和私钥对来解决这个问题。我不知道h但是对于问题1)的复制,在linux中为hadoop创建新用户并配置hadoop,其中包括密钥对生成和ssh ping。。2) 注销并以root用户身份登录,并更改hadoop用户的密码3)使用新密码登录到hadoop帐户,然后再次生成密钥对。。问题将显示4)将密码更改为原始密码并生成密钥对将删除问题。。