Java Hadoop安装:无法启动namenode
目前我正试图在我的ubuntu 14.10(32位乌托邦)上安装hadoop-2.6.0。我按照这里的指示: 但是,尝试格式化namenode时,无法启动namenode 这是我在尝试执行hdfs或hadoop namenode时一直收到的格式:Java Hadoop安装:无法启动namenode,java,linux,ubuntu,hadoop,connectexception,Java,Linux,Ubuntu,Hadoop,Connectexception,目前我正试图在我的ubuntu 14.10(32位乌托邦)上安装hadoop-2.6.0。我按照这里的指示: 但是,尝试格式化namenode时,无法启动namenode 这是我在尝试执行hdfs或hadoop namenode时一直收到的格式: 15/04/11 16:32:13 FATAL namenode.NameNode: Fialed to start namenode java.lang.IllegalArgumentException: URI has an authority
15/04/11 16:32:13 FATAL namenode.NameNode: Fialed to start namenode
java.lang.IllegalArgumentException: URI has an authority component
at java.io.File.<init>(File.java:423)
at org.apache.hadoop.hdfs.server.namenode.NNSStorage.getStorageDirectory(NNStorage.java:329)
at
org.apache.hadoop.hdfs.server.namenode.FSEditLog.initJournals(FSEditLog.java: 270)
at
org.apache.hadoop.hdfs.server.namenode.FSEditLog.initJournalsForWrite(FSEditLog.java:241)
at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:935)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1379)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1504)
15/04/11 16:32:13 INFO util.ExitUtil: Exiting with status 1
15/04/11 16:32:14 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at ThinkPad-Edge-E540/127.0.1.1
************************************************************/
后来,我卸载了hadoop 2.6.0,现在正试图按照上面链接中所示的当前指令进行操作
更新
我已经删除了我在以前版本中安装的所有以前安装的java(jdk1.7.0)。但是错误信息仍然存在
更新
这是在我的etc/主机中显示的内容:
127.0.0.1 localhost
127.0.1.1 myname-mycomputer (I have commented out this line per suggestion)
#The following lines are desirable for IPv6 capable hosts
::1 ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00:0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
在
/etc/hosts
中:
1。添加此行:
your-ip-address your-host-name
示例:192.168.1.8主控
在/etc/hosts
中:
2。删除带有127.0.1.1
的行(这将导致环回)
3。在核心站点中,将localhost
更改为您的ip
或您的主机名
现在,重新启动集群。当我在hdfs-site.xml中为namenode和datanode指定了错误路径,在core-site.xml中为tmp dir path指定了错误路径时,就会出现此问题,
路径应具有良好的格式,例如-
<property>
<name>dfs.namenode.edits.dir</name>
<value>file:///home/hadoop/hadoop-content/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///home/hadoop/hadoop-content/hdfs/datanode</value>
</property>
dfs.namenode.edits.dir
file:///home/hadoop/hadoop-content/hdfs/namenode
dfs.datanode.data.dir
file:///home/hadoop/hadoop-content/hdfs/datanode
对于core-site.xml中的temp dir,它类似于-
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-content/tmp</value>
</property>
fs.defaultFS
hdfs://localhost:9000
hadoop.tmp.dir
/主页/hadoop/hadoop内容/tmp
有时我们在指定-文件时出错://
删除/etc/hosts文件中带有127.0.1.1
的行。不工作。现在甚至出现了一个新错误:java.net.UnkownHostExceptionjava.net.UnkownHostException
错误发生,因为您的ip地址没有指向/etc/hosts
文件中的主机名。我添加了一个答案,请尝试。我尝试使用ifconfig获取我的ip地址。它显示了两个结果:1)。lo(本地环回):inet地址:127.0.0.1掩码:255.255.255.0。2) wlan0(以太网):inet地址:10.0.0.10 Bcast:10.0.0.255掩码:255.255.255.0。我应该用哪一种?这似乎是动态地址,如果我更改网络连接是否有效?感谢另外,我的hdfs-site.xml中没有本地主机。(请参阅此处的说明:)根据您的建议更改/etc/hosts中的ip地址后(本例中我使用10.0.0.10),错误消息不会更改。请尝试将core site.xml中的localhost
更改为您的ip。你们能发布你们的主机文件吗?我在最初的问题中已经这样做了。我已经放弃了这个指示。我遵循了另一个指令,它工作得很好!
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-content/tmp</value>
</property>