Apache spark 如何使spark流媒体作业在HD Insights(纱线)上永久运行?

Apache spark 如何使spark流媒体作业在HD Insights(纱线)上永久运行?,apache-spark,intellij-idea,spark-streaming,yarn,azure-hdinsight,Apache Spark,Intellij Idea,Spark Streaming,Yarn,Azure Hdinsight,我正在用IntelliJ开发一个运行在HD Insights集群(基于纱线)中的spark应用程序。目前,我直接从IntelliJ通过Azure HD Insights插件提交作业。这反过来使用livyapi远程提交作业 当我开发完代码后,我希望流式处理工作能够永久运行。目前,如果作业失败五次,程序将停止并不会自行重新启动。有没有办法改变这种行为?或者大多数人使用什么解决方案在失败后重新启动spark?纱线火花作业的重新启动由纱线设置控制。因此,您需要增加纱线中火花应用程序(纱线应用程序主控程序

我正在用IntelliJ开发一个运行在HD Insights集群(基于纱线)中的spark应用程序。目前,我直接从IntelliJ通过Azure HD Insights插件提交作业。这反过来使用livyapi远程提交作业


当我开发完代码后,我希望流式处理工作能够永久运行。目前,如果作业失败五次,程序将停止并不会自行重新启动。有没有办法改变这种行为?或者大多数人使用什么解决方案在失败后重新启动spark?

纱线火花作业的重新启动由纱线设置控制。因此,您需要增加纱线中火花应用程序(纱线应用程序主控程序)的重新启动次数。我相信它是:
warn.resourcemanager.am.max
。 在HDInsight中,转到Ambari UI,并在纱线->配置->高级纱线站点中更改此设置


为了提交生产作业,您可以直接使用livy API,如下所述:

谢谢!在Ambari视图中找到该设置。你知道这个数字是否可以设置为“无限”吗?