Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/templates/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop Amazon Elastic Map Reduce:作业流失败,因为尚未生成输出文件_Hadoop_Amazon Emr - Fatal编程技术网

Hadoop Amazon Elastic Map Reduce:作业流失败,因为尚未生成输出文件

Hadoop Amazon Elastic Map Reduce:作业流失败,因为尚未生成输出文件,hadoop,amazon-emr,Hadoop,Amazon Emr,我有一个AmazonEMR作业流,它执行三个任务,第一个任务的输出是随后两个任务的输入。第二个任务的输出由第三个任务DistributedCache使用 我已经完全在EMR网站(控制台)上创建了作业流,但是集群立即失败,因为它找不到分布式缓存文件——因为它还没有在步骤1中创建 是否只有通过boostrap操作从CLI创建这些步骤,并指定--wait-for-steps选项?奇怪的是,我无法执行一个任务的输入依赖于另一个任务的输出的多步骤作业流。最后,我通过创建一个引导但没有步骤的Amazon E

我有一个AmazonEMR作业流,它执行三个任务,第一个任务的输出是随后两个任务的输入。第二个任务的输出由第三个任务DistributedCache使用

我已经完全在EMR网站(控制台)上创建了作业流,但是集群立即失败,因为它找不到分布式缓存文件——因为它还没有在步骤1中创建


是否只有通过boostrap操作从CLI创建这些步骤,并指定
--wait-for-steps
选项?奇怪的是,我无法执行一个任务的输入依赖于另一个任务的输出的多步骤作业流。

最后,我通过创建一个引导但没有步骤的Amazon EMR集群解决了这个问题。然后我用SSH连接头部并在控制台上运行hadoop作业

现在,我可以灵活地将它们添加到脚本中,每个作业都有单独的配置选项