Ubuntu 如何在启动时启动hadoop?

Ubuntu 如何在启动时启动hadoop?,ubuntu,hadoop,Ubuntu,Hadoop,我的haddop 2.6.4环境运行良好,并使用start dfs.sh和start warn.sh启动它 如何使用此脚本在启动时启动haddop?一些技巧是使用start all.sh,但它已被弃用 我必须在init.d中创建两个服务吗?所有导出的东西怎么办?所有节点必须首先进入吗 谢谢。您将使用init.d,在init.d脚本中,您应该首先导出您需要的任何环境变量。然后,您可以调用两个启动脚本,或者将这两个脚本封装成一个脚本并使用它。查看init.d中的示例。也许一个更好的问题是我不这么认为

我的haddop 2.6.4环境运行良好,并使用
start dfs.sh
start warn.sh
启动它

如何使用此脚本在启动时启动haddop?一些技巧是使用
start all.sh
,但它已被弃用

我必须在
init.d
中创建两个服务吗?所有
导出
的东西怎么办?所有节点必须首先进入吗


谢谢。

您将使用init.d,在init.d脚本中,您应该首先导出您需要的任何环境变量。然后,您可以调用两个启动脚本,或者将这两个脚本封装成一个脚本并使用它。查看init.d中的示例。

也许一个更好的问题是我不这么认为。我知道如何在init.d中创建启动服务。这个案例是特定于hadoop的,因为我需要知道这个过程的含义(节点和服务器启动顺序,服务启动顺序,以及如果我需要一个接一个地启动,是否有办法替换过时的
start all.sh
一次启动所有服务。启动顺序重要吗?我的意思是,如果先启动就可以了?Hadoop有许多组件,基于您提到的两个脚本。您想art DFS first and Thread next。您可以参考不推荐使用的start-all.sh脚本,了解前面使用的启动顺序。它没有改变,节点和HDFS先启动,然后是资源管理器。我问这个问题,因为如果我为这两个脚本创建两个服务,我不能依赖启动顺序。我不知道为什么
start-all.sh就会被弃用……网络上的所有示例都会首先显示DFS,所以我不知道它是否必须这样做。