Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/facebook/9.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop单节点安装_Hadoop - Fatal编程技术网

Hadoop单节点安装

Hadoop单节点安装,hadoop,Hadoop,我在ubuntu 12.04 LTS上安装了hadoop单节点(1.0.3版)。问题在于,每当我启动节点时,jobtracker状态都会保持停滞状态,即“初始化”,在执行jps 5-6次之后,Datanode进程也会消失。我尝试签出日志文件,并设法找到此错误: INFO org.apache.hadoop.ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310 有时一切正常,而另一方面,有时datanode根本无法启动

我在ubuntu 12.04 LTS上安装了hadoop单节点(1.0.3版)。问题在于,每当我启动节点时,jobtracker状态都会保持停滞状态,即“初始化”,在执行jps 5-6次之后,Datanode进程也会消失。我尝试签出日志文件,并设法找到此错误:

INFO org.apache.hadoop.ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310
有时一切正常,而另一方面,有时datanode根本无法启动。有人能提出为什么会出现这种不一致的情况吗

有关文件如下:

core-site.xml:


hadoop.tmp.dir
/app/hadoop/tmp
其他临时目录的基础。
fs.default.name
hdfs://127.0.0.1:54310
默认文件系统的名称。其
方案和权限决定文件系统的实现。这个
uri的方案决定了配置属性(fs.scheme.impl)的命名
文件系统实现类。uri的权限用于
确定文件系统的主机、端口等。
mapred-site.xml:


mapred.job.tracker
127.0.0.1:54311
MapReduce作业跟踪器运行的主机和端口
在如果为“本地”,则作业作为单个映射在进程中运行
并减少任务。
hdfs-site.xml:


dfs.replication
1.
默认块复制。
创建文件时,可以指定实际的复制次数。
如果在创建时未指定复制,则使用默认值。

您好,您可以检查namenode是否正在运行,或者如果它没有运行,您需要运行一次。 它需要在/app中创建目录,它需要权限。 键入以下命令:

sudo mkdir/app

sudo chown$用户/应用程序

hadoop名称节点-格式


然后启动所有节点,几分钟后检查。它将运行所有节点…………

您可以在以下位置看到:

udo mkdir/app

sudo chown$用户/应用程序

hadoop名称节点-格式

<configuration>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/app/hadoop/tmp</value>
  <description>A base for other temporary directories.</description>
</property>

<property>
  <name>fs.default.name</name>
  <value>hdfs://127.0.0.1:54310</value>
<description>The name of the default file system.  A URI whose
  scheme and authority determine the FileSystem implementation.  The
  uri's scheme determines the config property (fs.SCHEME.impl) naming
  the FileSystem implementation class.  The uri's authority is used to
  determine the host, port, etc. for a filesystem.</description>
</property>
</configuration>
<configuration>
<property>
  <name>mapred.job.tracker</name>
  <value>127.0.0.1:54311</value>
  <description>The host and port that the MapReduce job tracker runs
  at.  If "local", then jobs are run in-process as a single map
  and reduce task.
  </description>
</property>
</configuration>
<configuration>
<property>
  <name>dfs.replication</name>
  <value>1</value>
  <description>Default block replication.
  The actual number of replications can be specified when the file is created.
  The default is used if replication is not specified in create time.
  </description>
</property>
</configuration>