Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/linux/25.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java Hadoop安装:无法启动namenode_Java_Linux_Ubuntu_Hadoop_Connectexception - Fatal编程技术网

Java Hadoop安装:无法启动namenode

Java Hadoop安装:无法启动namenode,java,linux,ubuntu,hadoop,connectexception,Java,Linux,Ubuntu,Hadoop,Connectexception,目前我正试图在我的ubuntu 14.10(32位乌托邦)上安装hadoop-2.6.0。我按照这里的指示: 但是,尝试格式化namenode时,无法启动namenode 这是我在尝试执行hdfs或hadoop namenode时一直收到的格式: 15/04/11 16:32:13 FATAL namenode.NameNode: Fialed to start namenode java.lang.IllegalArgumentException: URI has an authority

目前我正试图在我的ubuntu 14.10(32位乌托邦)上安装hadoop-2.6.0。我按照这里的指示:

但是,尝试格式化namenode时,无法启动namenode

这是我在尝试执行hdfs或hadoop namenode时一直收到的格式:

15/04/11 16:32:13 FATAL namenode.NameNode: Fialed to start namenode
java.lang.IllegalArgumentException: URI has an authority component
    at java.io.File.<init>(File.java:423)
    at             org.apache.hadoop.hdfs.server.namenode.NNSStorage.getStorageDirectory(NNStorage.java:329)
    at
org.apache.hadoop.hdfs.server.namenode.FSEditLog.initJournals(FSEditLog.java: 270)
    at
org.apache.hadoop.hdfs.server.namenode.FSEditLog.initJournalsForWrite(FSEditLog.java:241)
    at     org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:935)
    at     org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1379)
    at     org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1504)
15/04/11 16:32:13 INFO util.ExitUtil: Exiting with status 1
15/04/11 16:32:14 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at ThinkPad-Edge-E540/127.0.1.1
************************************************************/
后来,我卸载了hadoop 2.6.0,现在正试图按照上面链接中所示的当前指令进行操作

更新

我已经删除了我在以前版本中安装的所有以前安装的java(jdk1.7.0)。但是错误信息仍然存在

更新

这是在我的etc/主机中显示的内容:

127.0.0.1 localhost
127.0.1.1 myname-mycomputer (I have commented out this line per suggestion)

#The following lines are desirable for IPv6 capable hosts
::1       ip6-localhost  ip6-loopback
fe00::0   ip6-localnet
ff00:0    ip6-mcastprefix
ff02::1   ip6-allnodes
ff02::2   ip6-allrouters

/etc/hosts
中:

1。添加此行:

your-ip-address    your-host-name
示例:
192.168.1.8主控


/etc/hosts
中:


2。删除带有
127.0.1.1
的行(这将导致环回)

3。在核心站点中,将
localhost
更改为
您的ip
您的主机名


现在,重新启动集群。

当我在hdfs-site.xml中为namenode和datanode指定了错误路径,在core-site.xml中为tmp dir path指定了错误路径时,就会出现此问题, 路径应具有良好的格式,例如-

<property>
    <name>dfs.namenode.edits.dir</name>
    <value>file:///home/hadoop/hadoop-content/hdfs/namenode</value>
</property>

<property>
    <name>dfs.datanode.data.dir</name>
    <value>file:///home/hadoop/hadoop-content/hdfs/datanode</value>
</property>

dfs.namenode.edits.dir
file:///home/hadoop/hadoop-content/hdfs/namenode
dfs.datanode.data.dir
file:///home/hadoop/hadoop-content/hdfs/datanode
对于core-site.xml中的temp dir,它类似于-

<configuration>
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/hadoop-content/tmp</value>
</property>

fs.defaultFS
hdfs://localhost:9000
hadoop.tmp.dir
/主页/hadoop/hadoop内容/tmp


有时我们在指定-
文件时出错://

删除/etc/hosts文件中带有
127.0.1.1
的行。不工作。现在甚至出现了一个新错误:java.net.UnkownHostException
java.net.UnkownHostException
错误发生,因为您的ip地址没有指向
/etc/hosts
文件中的主机名。我添加了一个答案,请尝试。我尝试使用ifconfig获取我的ip地址。它显示了两个结果:1)。lo(本地环回):inet地址:127.0.0.1掩码:255.255.255.0。2) wlan0(以太网):inet地址:10.0.0.10 Bcast:10.0.0.255掩码:255.255.255.0。我应该用哪一种?这似乎是动态地址,如果我更改网络连接是否有效?感谢另外,我的hdfs-site.xml中没有本地主机。(请参阅此处的说明:)根据您的建议更改/etc/hosts中的ip地址后(本例中我使用10.0.0.10),错误消息不会更改。请尝试将
core site.xml中的
localhost
更改为您的ip。你们能发布你们的主机文件吗?我在最初的问题中已经这样做了。我已经放弃了这个指示。我遵循了另一个指令,它工作得很好!
<configuration>
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/hadoop-content/tmp</value>
</property>