有没有办法从正在执行的pyspark脚本中获取粘合作业的成功或失败状态?

有没有办法从正在执行的pyspark脚本中获取粘合作业的成功或失败状态?,pyspark,aws-glue,Pyspark,Aws Glue,嗨,我是AWS胶水的新手。是否有任何可能的方法可以找到我正在MySQL中运行和更新的胶水脚本的作业状态。我试图在胶水脚本从脚本内部完成执行后获取其状态 从下面的代码中,我只得到Mysql中更新的运行状态,但它应该是成功或失败 myNewJobRun=glue\u client.start\u job\u run(JobName=glue\u job) status=glue\u client.get\u job\u run(JobName=glue\u job,RunId=myNewJobRun

嗨,我是AWS胶水的新手。是否有任何可能的方法可以找到我正在MySQL中运行和更新的胶水脚本的作业状态。我试图在胶水脚本从脚本内部完成执行后获取其状态

从下面的代码中,我只得到Mysql中更新的运行状态,但它应该是成功或失败

myNewJobRun=glue\u client.start\u job\u run(JobName=glue\u job)
status=glue\u client.get\u job\u run(JobName=glue\u job,RunId=myNewJobRun['JobRunId']))
打印(“GLUE_作业运行ID:+myNewJobRun['JobRunId']))
打印(“粘合作业运行状态:+状态['JobRun']['JobRunState']))

您可能还需要检查重试作业的状态(如果已启用重试)。Glue分配一个新的JobRunId,后缀为“true”。

您可能还需要检查重试作业的状态(如果您已启用重试)。Glue分配一个后缀为“true”的新JobRunId