Java Debian上的单节点Hadoop:连接异常失败

Java Debian上的单节点Hadoop:连接异常失败,java,hadoop,Java,Hadoop,我在debian上安装了hadoop,运行良好。(不在VM中)然后我重新启动了计算机,这开始显示问题。我得到一个错误- hadoop fs -ls /user/hduser 返回的错误如下- 16/06/15 10:48:34 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable ls: C

我在debian上安装了hadoop,运行良好。(不在VM中)然后我重新启动了计算机,这开始显示问题。我得到一个错误-

hadoop fs -ls /user/hduser
返回的错误如下-

16/06/15 10:48:34 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
ls: Call From localhost/127.0.0.1 to mylocalcomp:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
另一方面,jps显示事情正在运行:

6022 SecondaryNameNode
5840 DataNode
7290 Jps
6413 NodeManager
6309 ResourceManager
My core-site.xml配置

<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://mylocalcomp:9000</value>
</property>
</configuration>
如果有帮助的话,我的Hadoop版本是2.7.2。在两个类似的问题上尝试了一些建议,但都不起作用,我现在有点困惑

在我的.profile文件中-

HADOOP_PREFIX=/usr/local/hadoop
JAVA_HOME=/usr/local/java
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_PREFIX/sbin:$HADOOP_PREFIX/bin
export HADOOP_PREFIX
export JAVA_HOME
export PATH
export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib"
编辑: 我使用start-dfs.sh和start-warn.sh启动hadoop。并使用/usr/local/hadoop/sbin/hadoop-daemon.sh start namenode启动name节点。 名称节点在jps中仅出现几分钟,然后消失

编辑2: 我想问题在于hdfs-site.xml中的namenode配置(或者缺少它)


9000是NameNode的一个默认RPC端口。您尚未启动namenode。试一试

sbin/hadoop-daemon.sh start namenode

我怀疑当您的计算机重新启动时,有一次尝试启动namenode,但失败了。因此,如果上面的命令不起作用,请查看namenode的日志。

谢谢!已按建议启动namenode。有趣的是,namenode在jps中只出现了几分钟,然后就消失了。。。我又犯了同样的错误(发布namenode日志。通常/var/log/hadoop中的日志实际上是namenode问题。我格式化了namenode,然后它再次开始工作…我猜在重新启动时发生了一些影响namenode的事情…我猜,如果我重新启动,可能会出现相同的错误。@user1478061请发布日志好吗?ip很好。您发布的日志片段是无用的。我纯粹的猜测是您的data dir设置在/tmp下,并且您的计算机每次重新启动时都会清理/tmp目录。因此,请尝试将dfs.datanode.data.dir和dfs.namenode.name.dir配置到/tmp以外的某个位置,在/var/log中查看一些更详细的信息问题是namenode,因为它在n格式化-有点链接post-但重新启动时可能会出现问题单节点群集的hdfs-site.xml中namenode的配置是什么?我认为这可以解决问题。。
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
Namenode log:
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = mylocalcomp/127.0.1.1
STARTUP_MSG:   args = []
STARTUP_MSG:   version = 2.7.2
sbin/hadoop-daemon.sh start namenode