Apache spark 如何在Databricks中抛出异常?
如果满足某个条件,我希望我的Databricks笔记本失败。现在我正在使用Apache spark 如何在Databricks中抛出异常?,apache-spark,pyspark,databricks,azure-databricks,Apache Spark,Pyspark,Databricks,Azure Databricks,如果满足某个条件,我希望我的Databricks笔记本失败。现在我正在使用dbutils.notebook.exit(),但它不会导致笔记本失败,我会收到邮件,就像笔记本运行成功一样。如何使我的笔记本失败?我也在同一条船上,可以肯定的是,dbutils.notebook.exit()对工作失败没有帮助。有更好的方法来完成这项工作,但下面的代码将使工作失败 status = 'Fail' if(status=='Fail'): 10/0 else: 100/10 正确,尽管dbutils
dbutils.notebook.exit()
,但它不会导致笔记本失败,我会收到邮件,就像笔记本运行成功一样。如何使我的笔记本失败?我也在同一条船上,可以肯定的是,dbutils.notebook.exit()对工作失败没有帮助。有更好的方法来完成这项工作,但下面的代码将使工作失败
status = 'Fail'
if(status=='Fail'):
10/0
else:
100/10
正确,尽管dbutils.notebook.exit(“自定义消息”)使作业跳过其余命令,但作业标记为成功。如果是python笔记本,我们可以使用raiseexception。这也将跳过其余命令,但将作业标记为失败
if condition:
raise Exception("Custom message")
您可以抛出异常以强制笔记本失败,如这里所述