Apache spark Databricks在作业完成时两次触发作业写入/更新成功文件
我使用基于S3事件的触发器来触发lambda函数。每次在S3中的特定位置写入_成功文件时,它都会触发lambda函数。正在使用Databricks spark作业在源位置写入数据。已经观察到,一旦作业将数据写入源位置,lambda函数将被触发两次,并且是一致的 只有在Databricks作业编写_SUCCESS时,才会观察到这种行为。我尝试从CLI编写文件,它只触发lambda函数一次Apache spark Databricks在作业完成时两次触发作业写入/更新成功文件,apache-spark,amazon-s3,amazon-emr,databricks,Apache Spark,Amazon S3,Amazon Emr,Databricks,我使用基于S3事件的触发器来触发lambda函数。每次在S3中的特定位置写入_成功文件时,它都会触发lambda函数。正在使用Databricks spark作业在源位置写入数据。已经观察到,一旦作业将数据写入源位置,lambda函数将被触发两次,并且是一致的 只有在Databricks作业编写_SUCCESS时,才会观察到这种行为。我尝试从CLI编写文件,它只触发lambda函数一次 从Databricks jobs那里了解这种行为背后的原因会很有帮助。你知道为什么会发生这种情况吗?
从Databricks jobs那里了解这种行为背后的原因会很有帮助。你知道为什么会发生这种情况吗?