Ubuntu Can';t打开hadoop本地主机:50070

Ubuntu Can';t打开hadoop本地主机:50070,ubuntu,hadoop,localhost,Ubuntu,Hadoop,Localhost,嗨,我正在尝试在ubuntu上安装hadoop(单节点)。 我无法打开localhost:50070 当我吃午饭的时候,我得到了这个 6674 NodeManager 6825 Jps 6359 ResourceManager 我是ubuntu新手,所以请尽可能多地解释,谢谢 daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ ./start-dfs.sh Starting namenodes on [localhost] daniele@

嗨,我正在尝试在ubuntu上安装hadoop(单节点)。 我无法打开localhost:50070

当我吃午饭的时候,我得到了这个

6674 NodeManager
6825 Jps
6359 ResourceManager
我是ubuntu新手,所以请尽可能多地解释,谢谢

daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ ./start-dfs.sh
Starting namenodes on [localhost]
daniele@localhost's password: 
localhost: starting namenode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-namenode-daniele-S551LB.out
daniele@localhost's password: 
localhost: starting datanode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-datanode-daniele-S551LB.out
Starting secondary namenodes [0.0.0.0]
daniele@0.0.0.0's password: 
0.0.0.0: starting secondarynamenode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-secondarynamenode-daniele-S551LB.out
daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ jps
2935 Jps
daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ ./start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [localhost]
daniele@localhost's password: 
localhost: starting namenode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-namenode-daniele-S551LB.out
daniele@localhost's password: 
localhost: starting datanode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-datanode-daniele-S551LB.out
Starting secondary namenodes [0.0.0.0]
daniele@0.0.0.0's password: 
0.0.0.0: starting secondarynamenode, logging to /usr/local/hadoop-2.6.0/logs/hadoop-daniele-secondarynamenode-daniele-S551LB.out
starting yarn daemons
starting resourcemanager, logging to /usr/local/hadoop-2.6.0/logs/yarn-daniele-resourcemanager-daniele-S551LB.out
daniele@localhost's password: 
localhost: starting nodemanager, logging to /usr/local/hadoop-2.6.0/logs/yarn-daniele-nodemanager-daniele-S551LB.out
daniele@daniele-S551LB:/usr/local/hadoop-2.6.0/sbin$ jps
3931 Jps
3846 NodeManager
3529 ResourceManager

检查netstat以查看端口是否正在接受连接-- netstat-tunlp | grep 50070

您的namenode在哪里运行(只能看到纱线服务)。。这里没有运行任何HDFS服务

要启动HDFS服务,请运行commnad-start-dfs.sh

当你做jps时,你应该找到下面的过程

14370第二名称节点

14020名称节点

14661节点管理器

14151数据节点

15003日元


14526 ResourceManager检查netstat以查看端口是否正在接受连接-- netstat-tunlp | grep 50070

您的namenode在哪里运行(只能看到纱线服务)。。这里没有运行任何HDFS服务

要启动HDFS服务,请运行commnad-start-dfs.sh

当你做jps时,你应该找到下面的过程

14370第二名称节点

14020名称节点

14661节点管理器

14151数据节点

15003日元


14526 ResourceManager

@daniele,如果hadoop服务未运行,请运行所有hadoop服务-

$start all.sh

$start dfs.sh$start warn.sh

Hadoop要求服务器运行服务。您正在使用Ubuntu桌面版。请确保已安装并运行apache服务器。 您也可以为此使用其他服务器

要安装apache服务器-$sudo apt get install apache2

检查apache服务器的状态-$sudo服务httpd状态

检查服务器是否工作的其他方法。 使用以下命令检查系统IP: $ifconfig

并在Windows/MAC浏览器上粘贴相同的IP。如果它工作正常,您将获得服务器信息,如果它不工作,您将连接失败或未知主机错误

解决问题的步骤:

  • 如果您没有任何服务器,请安装服务器并确保其正常工作并启用

  • 禁用防火墙:$sudo ufw Disable或者您只需允许端口:$sudo ufw allow 50070

  • 重新创建HDFS:

    $sudo rm-r HDF的位置

    $sudo mkdir HDFS的位置

    $sudo chown hadoop\u HDFS的用户名位置\u

  • 格式化名称节点:

    $hadoop名称节点-格式

  • 启动hadoop服务:

    $start all.sh

    $start dfs.sh$start warn.sh


  • 希望这有帮助。谢谢

    @daniele,如果hadoop没有运行,请运行所有的hadoop服务-

    $start all.sh

    $start dfs.sh$start warn.sh

    Hadoop要求服务器运行服务。您正在使用Ubuntu桌面版。请确保已安装并运行apache服务器。 您也可以为此使用其他服务器

    要安装apache服务器-$sudo apt get install apache2

    检查apache服务器的状态-$sudo服务httpd状态

    检查服务器是否工作的其他方法。 使用以下命令检查系统IP: $ifconfig

    并在Windows/MAC浏览器上粘贴相同的IP。如果它工作正常,您将获得服务器信息,如果它不工作,您将连接失败或未知主机错误

    解决问题的步骤:

  • 如果您没有任何服务器,请安装服务器并确保其正常工作并启用

  • 禁用防火墙:$sudo ufw Disable或者您只需允许端口:$sudo ufw allow 50070

  • 重新创建HDFS:

    $sudo rm-r HDF的位置

    $sudo mkdir HDFS的位置

    $sudo chown hadoop\u HDFS的用户名位置\u

  • 格式化名称节点:

    $hadoop名称节点-格式

  • 启动hadoop服务:

    $start all.sh

    $start dfs.sh$start warn.sh


  • 希望这有帮助。谢谢

    您已停止所有服务。您已经重新启动了namenode服务。最后启动所有服务

    bin/stop-all.sh
    bin/hadoop namenode -format 
    bin/start-all.sh
    

    如果您已经执行了,请选中它namenode。

    您已经停止了所有服务。您已经重新启动了namenode服务。最后启动所有服务

    bin/stop-all.sh
    bin/hadoop namenode -format 
    bin/start-all.sh
    

    如果您已经执行了,请检查它的名称节点。

    如果tmp目录处于一致状态,请检查日志

    日志文件位置:$HADOOP\u HOME/logs/HADOOP-*-namenode-**.Log

    您可能会在日志文件中看到一些内容

    2016-12-10 00:59:55718错误org.apache.hadoop.hdfs.server.namenode.namenode:启动namenode失败。 org.apache.hadoop.hdfs.server.common.unconsistentstateException:目录/tmp/dfs/name处于不一致状态:存储目录不存在或不可访问

    在core-site.xml中声明tmp dir,然后格式化namenode


    如果tmp目录处于一致状态,我希望它能帮助您检查日志

    日志文件位置:$HADOOP\u HOME/logs/HADOOP-*-namenode-**.Log

    您可能会在日志文件中看到一些内容

    2016-12-10 00:59:55718错误org.apache.hadoop.hdfs.server.namenode.namenode:启动namenode失败。 org.apache.hadoop.hdfs.server.common.unconsistentstateException:目录/tmp/dfs/name处于不一致状态:存储目录不存在或不可访问

    在core-site.xml中声明tmp dir,然后格式化namenode

    我希望