Apache spark 如何在Databricks中抛出异常?

Apache spark 如何在Databricks中抛出异常?,apache-spark,pyspark,databricks,azure-databricks,Apache Spark,Pyspark,Databricks,Azure Databricks,如果满足某个条件,我希望我的Databricks笔记本失败。现在我正在使用dbutils.notebook.exit(),但它不会导致笔记本失败,我会收到邮件,就像笔记本运行成功一样。如何使我的笔记本失败?我也在同一条船上,可以肯定的是,dbutils.notebook.exit()对工作失败没有帮助。有更好的方法来完成这项工作,但下面的代码将使工作失败 status = 'Fail' if(status=='Fail'): 10/0 else: 100/10 正确,尽管dbutils

如果满足某个条件,我希望我的Databricks笔记本失败。现在我正在使用
dbutils.notebook.exit()
,但它不会导致笔记本失败,我会收到邮件,就像笔记本运行成功一样。如何使我的笔记本失败?

我也在同一条船上,可以肯定的是,dbutils.notebook.exit()对工作失败没有帮助。有更好的方法来完成这项工作,但下面的代码将使工作失败

status = 'Fail'
if(status=='Fail'):
  10/0
else:
  100/10

正确,尽管dbutils.notebook.exit(“自定义消息”)使作业跳过其余命令,但作业标记为成功。如果是python笔记本,我们可以使用raiseexception。这也将跳过其余命令,但将作业标记为失败

if condition: 
  raise Exception("Custom message")

您可以抛出异常以强制笔记本失败,如这里所述