Hadoop 添加新数据节点-在新节点上格式化?

Hadoop 添加新数据节点-在新节点上格式化?,hadoop,hdfs,Hadoop,Hdfs,我已经用3个虚拟机建立了一个非常简单的Hadoop集群,其中一个充当NameNode,另外两个作为数据节点。我用format命令创建了HDFS文件系统,一切正常。我可以将文件保存到HDFS系统 现在我想添加另一个数据节点。我的假设是,当我设置新节点,将其添加到从属文件,并(大概)重新启动HDFS时,系统将意识到已添加了一个新节点,并且将在新节点上分配和格式化磁盘空间,使其成为HDFS的一部分。这个假设正确吗?显然,重新格式化整个HDF是不可取的,因此我假设可以“动态”添加数据节点。我是正确的还是

我已经用3个虚拟机建立了一个非常简单的Hadoop集群,其中一个充当NameNode,另外两个作为数据节点。我用format命令创建了HDFS文件系统,一切正常。我可以将文件保存到HDFS系统

现在我想添加另一个数据节点。我的假设是,当我设置新节点,将其添加到从属文件,并(大概)重新启动HDFS时,系统将意识到已添加了一个新节点,并且将在新节点上分配和格式化磁盘空间,使其成为HDFS的一部分。这个假设正确吗?显然,重新格式化整个HDF是不可取的,因此我假设可以“动态”添加数据节点。我是正确的还是需要执行其他操作以使新节点为HDF提供存储? 谢谢

我假设可以“动态”添加数据节点

你的假设是正确的

HDFS上的任何内容都不需要格式化。新datanode的磁盘应该是并且最好datanode目录与其他节点相同,但不一定相同

您不需要重新启动HDFS。Datanode在其服务运行时使用RPC请求向namenode注册

提示:使用ApacheAmbari使安装、配置和管理服务比自己编辑和同步XML容易得多-