Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/google-cloud-platform/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google cloud platform Terraform-BigQuery API的配额限制_Google Cloud Platform_Google Bigquery_Terraform - Fatal编程技术网

Google cloud platform Terraform-BigQuery API的配额限制

Google cloud platform Terraform-BigQuery API的配额限制,google-cloud-platform,google-bigquery,terraform,Google Cloud Platform,Google Bigquery,Terraform,我正在寻找一个Terraform代码示例来设置BigQueryAPI的配额限制 有人能给我举个例子吗 谢谢从今天起,您无法使用Terraform为BigQuery API设置配额限制。尽管如此,您仍然可以找到Terraform提供的所有Google BigQuery资源 如本文所述,您将找到有关不同类型产品的更多信息 我还将附上如何申请增加配额以及如何在BigQuery中创建 BigQuery自定义成本控制允许您以10 TB的增量指定每天处理的字节数限制。(注意,最小增量为10TB,而不是1TB

我正在寻找一个Terraform代码示例来设置BigQueryAPI的配额限制

有人能给我举个例子吗


谢谢

从今天起,您无法使用Terraform为BigQuery API设置配额限制。尽管如此,您仍然可以找到Terraform提供的所有Google BigQuery资源

如本文所述,您将找到有关不同类型产品的更多信息

我还将附上如何申请增加配额以及如何在BigQuery中创建

BigQuery自定义成本控制允许您以10 TB的增量指定每天处理的字节数限制。(注意,最小增量为10TB,而不是1TB)

最后,作为一种解决方法,您可以通过遵循BigQuery的最佳实践来控制成本,如前所述


我希望这会有帮助。

到目前为止,您都尝试了什么?您知道如何在Terraform之外进行此操作吗?是的,这确实有助于了解有关BigQuery的更多信息。谢谢。