Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/ember.js/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google bigquery BigQuery将表导出到csv文件_Google Bigquery - Fatal编程技术网

Google bigquery BigQuery将表导出到csv文件

Google bigquery BigQuery将表导出到csv文件,google-bigquery,Google Bigquery,我正在尝试将BigQuery表单UI导出到Google存储表,但遇到以下错误: 错误: 表gs://mybucket/delta.csv.gz太大,无法导出到单个文件。指定包含到碎片导出的uri。(错误代码:无效) 在查询后尝试导出时,我得到: 下载不可用此结果集包含的行太多,无法下载。请使用“另存为表”,然后导出结果表。终于找到了方法。我们必须在blob名称中使用“*” 并将根据需要创建尽可能多的文件 奇怪的是,我可以导入大文件(~GB),但无法导出大文件:(BigQuery可以为每个文件

我正在尝试将BigQuery表单UI导出到Google存储表,但遇到以下错误:

错误: 表gs://mybucket/delta.csv.gz太大,无法导出到单个文件。指定包含到碎片导出的uri。(错误代码:无效)

在查询后尝试导出时,我得到:


下载不可用此结果集包含的行太多,无法下载。请使用“另存为表”,然后导出结果表。

终于找到了方法。我们必须在blob名称中使用“*”

并将根据需要创建尽可能多的文件


奇怪的是,我可以导入大文件(~GB),但无法导出大文件:(

BigQuery可以为每个文件导出多达1GB的数据
对于大于1GB的文件,BigQuery支持导出到多个文件

请参见中的
单个通配符URI
多个通配符URI

给出了每天10Tb和每次导出500Gb的限制(每个最多500部分1Gb)