Hadoop 如何链接mapred和mapreduce作业

Hadoop 如何链接mapred和mapreduce作业,hadoop,mapreduce,chaining,Hadoop,Mapreduce,Chaining,现在我有两个hadoop工作需要链接在一起。一个是MapRedJob(旧api),另一个是MapReduceJob(新api),这是因为我们用于这两个作业的外部库 我想知道是否有一个很好的方法来连锁这两个工作 我尝试了一种方法(首先使用JobClient.runjob()运行映射的作业,在它完成后运行第二种方法。)但我在将此作业提交到hadoop clustor时遇到了一个问题。如果关闭本地终端,则只有第一个作业会运行,第二个作业不会运行。这是因为Java代码是在本地运行的,所以有好的解决方案吗

现在我有两个hadoop工作需要链接在一起。一个是MapRedJob(旧api),另一个是MapReduceJob(新api),这是因为我们用于这两个作业的外部库

我想知道是否有一个很好的方法来连锁这两个工作


我尝试了一种方法(首先使用JobClient.runjob()运行映射的作业,在它完成后运行第二种方法。)但我在将此作业提交到hadoop clustor时遇到了一个问题。如果关闭本地终端,则只有第一个作业会运行,第二个作业不会运行。这是因为Java代码是在本地运行的,所以有好的解决方案吗?然后我可以将整个作业提交到集群,本地程序不需要继续运行。

可能你可以查看oozie或cascading。那么,你希望你的作业2严格遵循作业1吗?@JtheRocker是的,我希望作业2遵循作业1。严格遵循的意思。我想做的事情就像一次提交,然后这两个作业就完成了。如果你释放你的本地终端,你的job1和job2应该在集群中运行,对吗?你可以试试,也许可以试试诺胡普。我可以提供一个答案,如果你想要的话,你可以使用nohup来实现。谢谢