Google bigquery 我们可以请求多少从Google云存储到BigQuery的并发上传?

Google bigquery 我们可以请求多少从Google云存储到BigQuery的并发上传?,google-bigquery,Google Bigquery,在上,它声明您可以在单独的请求中将多个文件从存储器上载到表中: 创建一个CSV文件来填充表格-用于填充表格的数据 表作为CSV文件上载。单个源文件的最大大小 是4GB,但您可以将多个源文件导入到一个表中,或者 单个请求或在单独的请求中 这些请求能否同时发出?如果是,每个帐户/存储桶/表的最大并发上载请求数是多少?如果这些数字没有明确的配额,是否意味着您可以通过发出上传请求来增加上传吞吐量 谢谢 KazBigQuery配额如下所示: 总之,每个导入请求最多可以有500个文件(每个文件必须小于4Gb

在上,它声明您可以在单独的请求中将多个文件从存储器上载到表中:

创建一个CSV文件来填充表格-用于填充表格的数据 表作为CSV文件上载。单个源文件的最大大小 是4GB,但您可以将多个源文件导入到一个表中,或者 单个请求或在单独的请求中

这些请求能否同时发出?如果是,每个帐户/存储桶/表的最大并发上载请求数是多少?如果这些数字没有明确的配额,是否意味着您可以通过发出上传请求来增加上传吞吐量

谢谢


Kaz

BigQuery配额如下所示:

总之,每个导入请求最多可以有500个文件(每个文件必须小于4Gb)。您可以每分钟发出两次导入请求,每天最多1000次导入请求

2013更新:

总之,每个导入请求最多可以有10000个文件(每个文件必须小于1Tb,字符串中没有新行)


谢谢你,迈克尔!顺便说一句,你能告诉我你在网上看到的最大上传吞吐量是多少吗?我只是想知道一个粗略的估计数。不幸的是,我们没有关于摄入时间的SLA,导入速度与数据大小的关系目前还无法预测。然而,我已经能够在大约半小时内(在批处理摄取作业中完成时)摄取数百GB的CSV数据(首先是gzip,然后在云存储中进行)。这是非常有价值的信息!非常感谢!!