将hadoop服务器添加到同一集群(主从)
我有两个hadoop伪(独立)服务器,我创建这些服务器是为了进行测试。 现在,我想将两台服务器合并到一个集群中,并使其成为主从配置。 有没有办法做到这一点?将hadoop服务器添加到同一集群(主从),hadoop,Hadoop,我有两个hadoop伪(独立)服务器,我创建这些服务器是为了进行测试。 现在,我想将两台服务器合并到一个集群中,并使其成为主从配置。 有没有办法做到这一点? 提前感谢。当然可以,只需遵循步骤1即可 确定要成为主控的伪代码。一旦决定,在文件中添加主机名 $hadoop_home/conf/master 步骤2 若您希望其他伪计算机和主计算机充当数据节点,那个么将这些计算机名称添加到文件中 $hadoop_home/conf/slaves 步骤3 在主设备和从设备之间建立SSH无密码连接。改变
提前感谢。当然可以,只需遵循步骤1即可 确定要成为主控的伪代码。一旦决定,在文件中添加主机名
$hadoop_home/conf/master
步骤2
若您希望其他伪计算机和主计算机充当数据节点,那个么将这些计算机名称添加到文件中
$hadoop_home/conf/slaves
步骤3
在主设备和从设备之间建立SSH无密码连接。改变
/etc/hosts
如果他们正在连接,则在必要时进行归档
步骤4
现在准备好hadoop多节点集群开始
格式名称节点
$hadoop_home/bin/hadoop namenode -format
启动集群
$hadoop_home/bin/start-all.sh