使用Linux的hadoop节点+;窗户
我有4台windows计算机,其中3台安装了hadoop。 一台机器拥有Harton work沙箱(比如第四台机器),现在我需要将第四台机器作为我的服务器(名称节点) 机器的其余部分作为奴隶使用Linux的hadoop节点+;窗户,linux,windows,hadoop,Linux,Windows,Hadoop,我有4台windows计算机,其中3台安装了hadoop。 一台机器拥有Harton work沙箱(比如第四台机器),现在我需要将第四台机器作为我的服务器(名称节点) 机器的其余部分作为奴隶 如果我更新其余3台机器中的配置文件,它是否会工作 还是有其他方法可以做到这一点 还有其他建议吗 谢谢 最后我得到了这个,但我找不到任何帮助 一个不安全的集群可以工作(不安全的意思是您不启用基于Hadoop Kerberos的身份验证和安全性,即Hadoop.security.authentication
- 如果我更新其余3台机器中的配置文件,它是否会工作
- 还是有其他方法可以做到这一点李>
- 还有其他建议吗
一个不安全的集群可以工作(不安全的意思是您不启用基于Hadoop Kerberos的身份验证和安全性,即
Hadoop.security.authentication
保留为简单的)。您需要更新所有节点配置,以指向新的第4个节点,作为计划在其上承载的各种服务的主节点。您提到了namenode,但我假设您真的打算将第四个节点设为“head”节点,这意味着它可能还将运行resourcemanager和historyserver(或者旧式Hadoop的jobtracker)。这是唯一的核心,没有考虑更高层次的组件,如蜂巢、猪、Oozie等,甚至没有提到Ambari或色调
可以对现有Windows(或Linux)节点进行安装后配置,编辑各种xx-site.xml文件。你必须知道要改变什么,这不是小事。可能只需使用适当的clusterproperties.txt配置文件重新部署windows机器会容易得多。看