Apache spark 我可以在代码中设置spark.Thread.maxAppAttempts吗?

Apache spark 我可以在代码中设置spark.Thread.maxAppAttempts吗?,apache-spark,Apache Spark,提交应用程序时,我可以通过以下参数将最大重试时间指定为1: --conf spark.warn.maxAppAttempts=1 有没有办法在代码中设置它?我试过这种方法,但不起作用- new SparkConf().set(“spark.warn.maxapattempts”,“1”) 谢谢 您可以分享一下如何在应用程序中创建sparkSession和sparkContext吗?val conf=new SparkConf().set(“spark.warn.maxAppAttempts”,“

提交应用程序时,我可以通过以下参数将最大重试时间指定为1:

--conf spark.warn.maxAppAttempts=1

有没有办法在代码中设置它?我试过这种方法,但不起作用-

new SparkConf().set(“spark.warn.maxapattempts”,“1”)


谢谢

您可以分享一下如何在应用程序中创建sparkSession和sparkContext吗?
val conf=new SparkConf().set(“spark.warn.maxAppAttempts”,“1”).setAppName(“somename”)
implicit val spark=sparkSession.builder.config(conf).enableHiveSupport().getOrCreate()您也在代码中创建sparkContext吗?如果是,你能分享一下你是如何创建的吗?不,我没有创建SparkContext。我只创建了SparkSession。