Apache spark 我们是否有Spark SQL的重试配置?

Apache spark 我们是否有Spark SQL的重试配置?,apache-spark,pyspark,apache-spark-sql,spark-submit,retry-logic,Apache Spark,Pyspark,Apache Spark Sql,Spark Submit,Retry Logic,我们是否有Spark SQL的重试配置 我们为spark提交了“spark.Thread.maxAppAttempts”。spark sql是否有类似的配置?spark.swarn.maxapattempts是在提交的整个spark应用程序失败之前的最大AM尝试次数。您在询问中的任务级别重试吗?如果是这样,“spark.task.maxFailures”会在放弃之前将重试次数设置为“4”(默认值)。@Karthick我会尝试让您这样做。Thank.spark.Thread.maxAppAttem

我们是否有Spark SQL的重试配置


我们为spark提交了“spark.Thread.maxAppAttempts”。spark sql是否有类似的配置?

spark.swarn.maxapattempts是在提交的整个spark应用程序失败之前的最大AM尝试次数。您在询问中的任务级别重试吗?如果是这样,“spark.task.maxFailures”会在放弃之前将重试次数设置为“4”(默认值)。@Karthick我会尝试让您这样做。Thank.spark.Thread.maxAppAttempts是提交的整个spark应用程序失败之前的最大AM尝试次数。您在询问中的任务级别重试吗?如果是这样,“spark.task.maxFailures”会在放弃之前将重试次数设置为“4”(默认值)。@Karthick我会尝试让您这样做。谢谢