hadoop namenode、datanode、secondarynamenode未启动

hadoop namenode、datanode、secondarynamenode未启动,hadoop,Hadoop,我刚刚下载了hadoop-0.20 tar并解压缩。我将JAVA_设置为HOME,HADOOP_设置为HOME。我修改了core-site.xml、hdfs-site.xml和mapred-site.xml 我开始服务 jps jps JobTracker TaskTracker 我检查日志。上面说 2015-02-11 18:07:52,278 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: STARTUP_MSG:

我刚刚下载了hadoop-0.20 tar并解压缩。我将JAVA_设置为HOME,HADOOP_设置为HOME。我修改了core-site.xml、hdfs-site.xml和mapred-site.xml

我开始服务

  jps


 jps
 JobTracker
 TaskTracker
我检查日志。上面说

 2015-02-11 18:07:52,278 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: STARTUP_MSG:

 /************************************************************
 STARTUP_MSG: Starting NameNode
 STARTUP_MSG:   host = scspn0022420004.lab.eng.btc.netapp.in/10.72.40.68
 STARTUP_MSG:   args = []
 STARTUP_MSG:   version = 0.20.0
 STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/core/branches/branch-0.20 -r 763504; compiled by 'ndaley' on Thu Apr  9 05:18:40 UTC 2009
 ************************************************************/
  2015-02-11 18:07:52,341 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.lang.NullPointerException
    at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:134)
    at   org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:156)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:160)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:175)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:279)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:955)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:964)

    2015-02-11 18:07:52,346 INFO   org.apache.hadoop.hdfs.server.namenode.NameNode: SHUTDOWN_MSG:
   /************************************************************
   SHUTDOWN_MSG: Shutting down NameNode at   scspn0022420004.lab.eng.btc.netapp.in/10.72.40.68
   ************************************************************/

我不使用0.20.0版本,但您确定core-site.xml中的键是
fs.defaultFS

在中似乎命名为
fs.default.name
我不使用0.20.0版本,但是您确定core-site.xml中的键是
fs.defaultFS

在中似乎命名为
fs.default.name
我不使用0.20.0版本,但是您确定core-site.xml中的键是
fs.defaultFS

在中似乎命名为
fs.default.name
我不使用0.20.0版本,但是您确定core-site.xml中的键是
fs.defaultFS

在中,似乎命名为
fs.default.name

我猜您没有正确设置hadoop群集,请按照以下步骤操作:

步骤1:开始设置
。bashrc

vi $HOME/.bashrc
将以下几行放在文件末尾:(将hadoop home更改为您的)

步骤2:编辑hadoop env.sh,如下所示:

# The java implementation to use.  Required.
export JAVA_HOME=/usr/lib/jvm/java-6-sun
步骤3:现在创建一个目录并设置所需的所有权和权限

$ sudo mkdir -p /app/hadoop/tmp
$ sudo chown hduser:hadoop /app/hadoop/tmp
# ...and if you want to tighten up security, chmod from 755 to 750...
$ sudo chmod 750 /app/hadoop/tmp
步骤4:编辑
core site.xml

<property>
  <name>hadoop.tmp.dir</name>
  <value>/app/hadoop/tmp</value>
</property>

<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:54310</value>
</property>
<property>
  <name>mapred.job.tracker</name>
  <value>localhost:54311</value>
</property>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
步骤6:编辑
hdfs site.xml

<property>
  <name>hadoop.tmp.dir</name>
  <value>/app/hadoop/tmp</value>
</property>

<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:54310</value>
</property>
<property>
  <name>mapred.job.tracker</name>
  <value>localhost:54311</value>
</property>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>

希望这将对您有所帮助

我想您没有正确设置hadoop群集,请按照以下步骤操作:

步骤1:开始设置
。bashrc

vi $HOME/.bashrc
将以下几行放在文件末尾:(将hadoop home更改为您的)

步骤2:编辑hadoop env.sh,如下所示:

# The java implementation to use.  Required.
export JAVA_HOME=/usr/lib/jvm/java-6-sun
步骤3:现在创建一个目录并设置所需的所有权和权限

$ sudo mkdir -p /app/hadoop/tmp
$ sudo chown hduser:hadoop /app/hadoop/tmp
# ...and if you want to tighten up security, chmod from 755 to 750...
$ sudo chmod 750 /app/hadoop/tmp
步骤4:编辑
core site.xml

<property>
  <name>hadoop.tmp.dir</name>
  <value>/app/hadoop/tmp</value>
</property>

<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:54310</value>
</property>
<property>
  <name>mapred.job.tracker</name>
  <value>localhost:54311</value>
</property>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
步骤6:编辑
hdfs site.xml

<property>
  <name>hadoop.tmp.dir</name>
  <value>/app/hadoop/tmp</value>
</property>

<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:54310</value>
</property>
<property>
  <name>mapred.job.tracker</name>
  <value>localhost:54311</value>
</property>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>

希望这将对您有所帮助

我想您没有正确设置hadoop群集,请按照以下步骤操作:

步骤1:开始设置
。bashrc

vi $HOME/.bashrc
将以下几行放在文件末尾:(将hadoop home更改为您的)

步骤2:编辑hadoop env.sh,如下所示:

# The java implementation to use.  Required.
export JAVA_HOME=/usr/lib/jvm/java-6-sun
步骤3:现在创建一个目录并设置所需的所有权和权限

$ sudo mkdir -p /app/hadoop/tmp
$ sudo chown hduser:hadoop /app/hadoop/tmp
# ...and if you want to tighten up security, chmod from 755 to 750...
$ sudo chmod 750 /app/hadoop/tmp
步骤4:编辑
core site.xml

<property>
  <name>hadoop.tmp.dir</name>
  <value>/app/hadoop/tmp</value>
</property>

<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:54310</value>
</property>
<property>
  <name>mapred.job.tracker</name>
  <value>localhost:54311</value>
</property>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
步骤6:编辑
hdfs site.xml

<property>
  <name>hadoop.tmp.dir</name>
  <value>/app/hadoop/tmp</value>
</property>

<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:54310</value>
</property>
<property>
  <name>mapred.job.tracker</name>
  <value>localhost:54311</value>
</property>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>

希望这将对您有所帮助

我想您没有正确设置hadoop群集,请按照以下步骤操作:

步骤1:开始设置
。bashrc

vi $HOME/.bashrc
将以下几行放在文件末尾:(将hadoop home更改为您的)

步骤2:编辑hadoop env.sh,如下所示:

# The java implementation to use.  Required.
export JAVA_HOME=/usr/lib/jvm/java-6-sun
步骤3:现在创建一个目录并设置所需的所有权和权限

$ sudo mkdir -p /app/hadoop/tmp
$ sudo chown hduser:hadoop /app/hadoop/tmp
# ...and if you want to tighten up security, chmod from 755 to 750...
$ sudo chmod 750 /app/hadoop/tmp
步骤4:编辑
core site.xml

<property>
  <name>hadoop.tmp.dir</name>
  <value>/app/hadoop/tmp</value>
</property>

<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:54310</value>
</property>
<property>
  <name>mapred.job.tracker</name>
  <value>localhost:54311</value>
</property>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
步骤6:编辑
hdfs site.xml

<property>
  <name>hadoop.tmp.dir</name>
  <value>/app/hadoop/tmp</value>
</property>

<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:54310</value>
</property>
<property>
  <name>mapred.job.tracker</name>
  <value>localhost:54311</value>
</property>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>

希望这将帮助您

我正在尝试设置单个节点的可能副本。不是多节点的,我看不到主节点标记有任何错误,如问题中所述。可能是重复的,我正在尝试设置单个节点。不是多节点的,我看不到主节点标记有任何错误,如问题中所述。可能是重复的,我正在尝试设置单个节点。不是多节点的,我看不到主节点标记有任何错误,如问题中所述。可能是重复的,我正在尝试设置单个节点。不是多节点的,我看不到在这个问题中提到的主标记有任何错误。让我试试这个,我会让你知道的。谢谢你的步骤欢迎你(别忘了把你的JAVA_主页和HADOOP_主页改成你的主页)我做的技术:1)修改了bashrc。但是我在我的路径中更新了java和hadoop主页。有什么区别。2) 正如阿方索和你所说,我修改了core-site.xml。i) fs.default.name ii)创建了一个目录。谢谢姐姐:)@ALL,请按照以下说明安装hadoop。它工作得很好。虽然这不是必需的,但建议使用它,因为它有助于将Hadoop安装与在同一台机器上运行的其他软件应用程序和用户帐户分离。请让我试试这个,我会让您知道的。谢谢你的步骤欢迎你(别忘了把你的JAVA_主页和HADOOP_主页改成你的主页)我做的技术:1)修改了bashrc。但是我在我的路径中更新了java和hadoop主页。有什么区别。2) 正如阿方索和你所说,我修改了core-site.xml。i) fs.default.name ii)创建了一个目录。谢谢姐姐:)@ALL,请按照以下说明安装hadoop。它工作得很好。虽然这不是必需的,但建议使用它,因为它有助于将Hadoop安装与在同一台机器上运行的其他软件应用程序和用户帐户分离。请让我试试这个,我会让您知道的。谢谢你的步骤欢迎你(别忘了把你的JAVA_主页和HADOOP_主页改成你的主页)我做的技术:1)修改了bashrc。但是我在我的路径中更新了java和hadoop主页。有什么区别。2) 正如阿方索和你所说,我修改了core-site.xml。i) fs.default.name ii)创建了一个目录。谢谢姐姐:)@ALL,请按照以下说明安装hadoop。它工作得很好。虽然这不是必需的,但建议使用它,因为它有助于将Hadoop安装与在同一台机器上运行的其他软件应用程序和用户帐户分离。请让我试试这个,我会让您知道的。谢谢你的步骤欢迎你(别忘了把你的JAVA_主页和HADOOP_主页改成你的主页)我做的技术:1)修改了bashrc。但是我在我的路径中更新了java和hadoop主页。有什么区别。2) 正如阿方索和你所说,我修改了core-site.xml。i) fs.default.name ii)创建了一个目录。谢谢姐姐:)@ALL,请按照以下说明安装hadoop。它工作得很好。虽然这不是必需的,但建议使用它,因为它有助于将Hadoop安装与运行在同一ma上的其他软件应用程序和用户帐户分开