Apache spark 有没有办法通过applicationID和链接的spark submit命令获取纱线日志?
我在亚马逊EMR上有大约400个纱线应用程序,分20批运行。大概是这样的:Apache spark 有没有办法通过applicationID和链接的spark submit命令获取纱线日志?,apache-spark,yarn,amazon-emr,spark-submit,Apache Spark,Yarn,Amazon Emr,Spark Submit,我在亚马逊EMR上有大约400个纱线应用程序,分20批运行。大概是这样的: 序号20中i的;是否提交火花-主纱线&;完成 我希望此过程完全自动化,因此希望以编程方式捕获任何故障日志。我知道,如果我们有applicationId,可以通过以下命令查看应用程序日志: 纱线原木-应用程序ID 但是,我无法找到将applicationId链接到相应spark submit命令的方法 假设上面(1.)中的命令一次向纱线提交20个spark submit作业,其中3个失败,我如何知道哪个spark subm
;是否提交火花-主纱线&;完成
纱线原木-应用程序ID
spark submit
作业,其中3个失败,我如何知道哪个spark submit
命令失败?
是否有一种方法可以通过编程方式检索(1.)中每个spark submit
命令的applicationId,并利用(2.)获取相应的日志