Java 如何取消Spark Hadoop RDD计算

Java 如何取消Spark Hadoop RDD计算,java,scala,hadoop,apache-spark,cluster-computing,Java,Scala,Hadoop,Apache Spark,Cluster Computing,假设我有NewHadoopRDD,它的一个拆分在计算过程中失败。有了本地跑步者,我很容易看到这个过程的所有阶段 我看到任务失败,但调度程序启动下一个任务,并且只有在该任务通知任务失败后才启动 15/02/19 20:58:58 INFO scheduler.TaskSetManager: Starting task 1.0 in stage 0.0 (TID 1, localhost, PROCESS_LOCAL, 1347 bytes) 15/02/19 20:58:58 INFO execu

假设我有
NewHadoopRDD
,它的一个拆分在计算过程中失败。有了本地跑步者,我很容易看到这个过程的所有阶段

我看到任务失败,但调度程序启动下一个任务,并且只有在该任务通知任务失败后才启动

15/02/19 20:58:58 INFO scheduler.TaskSetManager: Starting task 1.0 in stage 0.0 (TID 1, localhost, PROCESS_LOCAL, 1347 bytes)
15/02/19 20:58:58 INFO executor.Executor: Running task 1.0 in stage 0.0 (TID 1)
15/02/19 20:58:58 WARN scheduler.TaskSetManager: Lost task 0.0 in stage 0.0 (TID 0, localhost): java.lang.RuntimeException: java.sql.SQLException:

现在舞台被取消了

15/02/19 20:58:58 ERROR scheduler.TaskSetManager: Task 0 in stage 0.0 failed 1 times; aborting job
15/02/19 20:58:58 INFO scheduler.TaskSchedulerImpl: Cancelling stage 0 
15/02/19 20:58:58 INFO executor.Executor: Executor is trying to kill task 1.0 in stage 0.0 (TID 1)
15/02/19 20:58:58 INFO scheduler.TaskSchedulerImpl: Stage 0 was cancelled
控制甚至传递到上下文关闭

15/02/19 20:58:58 INFO ui.SparkUI: Stopped Spark web UI at http://node4.hbase.vitech.com.ua:4040
但我看到了下一阶段任务的日志输出

15/02/19 20:58:58 INFO rdd.NewHadoopRDD: Input split: 0+0 ...
只有在调度程序停止时,我才看到任务被终止(在状态更新时!)


我能做些什么来更快地清理所有RDD资源吗
unpersist()
在这里没有帮助。我看到它是在上下文停止记录之前记录的。但无论如何,我看到了下一个任务日志。

没有办法更快地恢复。一旦任务启动,它将自行完成或失败。阶段失败或取消不会中断正在进行的任务


我认为原因基本上是这样的。如果这是一个问题,您可以选择更多的分区。较小的任务完成得更快。

悲哀但真实。我得到了同样的答案。
15/02/19 20:58:58 INFO rdd.NewHadoopRDD: Input split: 0+0 ...
15/02/19 20:58:58 INFO scheduler.DAGScheduler: Stopping DAGScheduler
15/02/19 20:58:58 INFO executor.Executor: Executor killed task 1.0 in stage 0.0 (TID 1)
15/02/19 20:58:58 ERROR scheduler.TaskSchedulerImpl: Exception in statusUpdate