Google cloud dataflow 如何在Java中将运行时参数传递给BigtableIO?

Google cloud dataflow 如何在Java中将运行时参数传递给BigtableIO?,google-cloud-dataflow,apache-beam,google-cloud-bigtable,apache-beam-io,Google Cloud Dataflow,Apache Beam,Google Cloud Bigtable,Apache Beam Io,根据,BigtableIO不支持运行时参数(仅适用于BigQuery、PubSub和Text)。是否有一种可能的解决方法或示例,可以在不重新实现类的情况下执行此操作 实际上,我使用的是bigtable hbase beam dependency中的CloudBigtableIO。是否期望在某个时候在这两个库上都得到支持?我们现在有了参数支持,从pull请求开始。是您可能会感兴趣的代码 您引用的文档中也有Bigtable的更新说明。如果您的目标是在运行时将突变写入不同的表,则可能必须定义一个经过分

根据,BigtableIO不支持运行时参数(仅适用于BigQuery、PubSub和Text)。是否有一种可能的解决方法或示例,可以在不重新实现类的情况下执行此操作


实际上,我使用的是bigtable hbase beam dependency中的CloudBigtableIO。是否期望在某个时候在这两个库上都得到支持?

我们现在有了参数支持,从pull请求开始。是您可能会感兴趣的代码


您引用的文档中也有Bigtable的更新说明。

如果您的目标是在运行时将突变写入不同的表,则可能必须定义一个经过分区以写入不同表的管道。您需要支持Bigtable的运行时参数有什么特别的原因吗?您的目标是什么?您想对运行时参数做什么?(我不确定“运行时参数”在本例中的实际含义)。我是库的维护者,所以我很乐意提供帮助,只要我有更多的信息。我的主要目标是在从模板运行作业时配置Bigtable instanceId和tableId。要从模板运行作业,您可能可以传递不同的参数以使IO参数可配置,但它们需要接受ValueProvider实例。为了构建管道,我使用CloudBigtableIO.WriteTable()和CloudBigTableConfiguration实例。由于该配置实例不接受ValueProvider实例,因此我无法这样做。(在下一篇评论中继续)在这一天,我看到了now accepts ValueProvider实例,但仅在主分支中,它尚未发布。我个人认为hbase beam库更易于管理,因此我特别有兴趣了解更多关于此库的信息。