Google cloud platform 云数据流上的25个作业限制是否可以延长?

Google cloud platform 云数据流上的25个作业限制是否可以延长?,google-cloud-platform,google-cloud-dataflow,Google Cloud Platform,Google Cloud Dataflow,我目前正在评估谷歌云数据流。根据,每个云平台项目最多可以运行25个并发数据流作业。 这似乎很低。我认为运行100个中小型作业非常有价值,能够支持并行部署、测试和模块化管道(许多小型作业似乎更容易更新/升级,尽管Dataflow对就地管道升级有一些支持) 是否可以像GCP上的许多配额一样,以某种方式增加这一限制?解决此限制的常见做法是什么?是的,您可以要求增加项目的限制。你能写信给dataflow吗-feedback@google.com给你的项目ID

我目前正在评估谷歌云数据流。根据,
每个云平台项目最多可以运行25个并发数据流作业。

这似乎很低。我认为运行100个中小型作业非常有价值,能够支持并行部署、测试和模块化管道(许多小型作业似乎更容易更新/升级,尽管Dataflow对就地管道升级有一些支持)


是否可以像GCP上的许多配额一样,以某种方式增加这一限制?解决此限制的常见做法是什么?

是的,您可以要求增加项目的限制。你能写信给dataflow吗-feedback@google.com给你的项目ID