Hadoop 跳过失败的映射作业

Hadoop 跳过失败的映射作业,hadoop,mapreduce,apache-pig,Hadoop,Mapreduce,Apache Pig,是否有一种方法可以跳过单个失败的映射作业,而不是整个作业?我有数以千计的地图工作都运行良好,总是有这个恼人的最后一个地图工作,需要永远,并最终杀死大的工作 有没有办法设置“失败时忽略”之类的常规设置或可以忽略的贴图百分比 我不希望100%的数据都能得到完美的结果,95%的数据就足够了。您可以使用mapred.max.map.failures.percent(新版本2.1.0中的mapreduce.map.failures.maxpercent)和mapred.max.reduce.failure

是否有一种方法可以跳过单个失败的映射作业,而不是整个作业?我有数以千计的地图工作都运行良好,总是有这个恼人的最后一个地图工作,需要永远,并最终杀死大的工作

有没有办法设置“失败时忽略”之类的常规设置或可以忽略的贴图百分比


我不希望100%的数据都能得到完美的结果,95%的数据就足够了。

您可以使用mapred.max.map.failures.percent(新版本2.1.0中的mapreduce.map.failures.maxpercent)和mapred.max.reduce.failures.percent属性来控制作业失败