Dataframe 如何使用CLI或Databricks API监视Databricks作业,以获取有关所有作业的信息

Dataframe 如何使用CLI或Databricks API监视Databricks作业,以获取有关所有作业的信息,dataframe,apache-spark-sql,databricks,pyspark-dataframes,databricks-connect,Dataframe,Apache Spark Sql,Databricks,Pyspark Dataframes,Databricks Connect,我想监控作业的状态,以查看作业是超时运行还是失败。如果你有脚本或任何参考,那么请帮助我与此。谢谢您可以使用databricks runs list命令列出所有运行的作业。这将列出所有作业及其当前运行/失败/成功/终止状态 如果要查看作业是否正在运行,则必须使用databricks runs get-run id命令列出运行中的元数据。这将返回一个json,您可以解析出开始时间和结束时间 列出作业运行。 databricks运行列表 获取以json格式运行的元数据 databricks运行获取-运

我想监控作业的状态,以查看作业是超时运行还是失败。如果你有脚本或任何参考,那么请帮助我与此。谢谢

您可以使用databricks runs list命令列出所有运行的作业。这将列出所有作业及其当前运行/失败/成功/终止状态

如果要查看作业是否正在运行,则必须使用databricks runs get-run id命令列出运行中的元数据。这将返回一个json,您可以解析出开始时间和结束时间

列出作业运行。 databricks运行列表 获取以json格式运行的元数据 databricks运行获取-运行id 1234 希望这能帮助你走上正轨