Google cloud dataflow BigQueryIO.write操作成功/失败

Google cloud dataflow BigQueryIO.write操作成功/失败,google-cloud-dataflow,apache-beam,Google Cloud Dataflow,Apache Beam,有没有办法知道BigQueryIO.write()操作是否已在程序中成功完成? 它返回WriteResult,但在其中找不到任何相关方法。或者是否存在?如果管道中的任何操作失败,将重试。如果重复失败,批处理作业将被终止并标记为失败,流式作业将永远继续重试。WriteResult允许您使用InsertRetryPolicy来控制重试错误的方式。这允许IO部分成功并指示哪些行有问题。如果未设置InsertRetryPolicy,则完成的管道表示写入已成功完成 如果这不能解决您的问题,您能否详细说明您

有没有办法知道BigQueryIO.write()操作是否已在程序中成功完成?
它返回WriteResult,但在其中找不到任何相关方法。或者是否存在?

如果管道中的任何操作失败,将重试。如果重复失败,批处理作业将被终止并标记为失败,流式作业将永远继续重试。WriteResult允许您使用InsertRetryPolicy来控制重试错误的方式。这允许IO部分成功并指示哪些行有问题。如果未设置InsertRetryPolicy,则完成的管道表示写入已成功完成


如果这不能解决您的问题,您能否详细说明您正在尝试做什么?

实际上,我有一个模板,在将数据写入BigQuery后,我需要在其中执行某些操作。但我在p.run()方法之后编写的任何内容都不会执行(如果我只使用Dataflow Runner而不使用模板,这一点就行了)。因此考虑在BigQueryIO.write()之后执行这些步骤。这可能吗?我在WriteResult中看不到任何insertRetryPolicy()方法。这是Beam 2.2中的内容吗?InsertRetryPolicy是BigQuery写入的一个属性。如果所有操作都成功,WriteResult将为空。如何检查它是否为空?有人知道这方面的工作示例吗?我还对在BigQueryLink任务之后执行一些任务感兴趣。