Google bigquery Google Bigquery-批量加载

Google bigquery Google Bigquery-批量加载,google-bigquery,Google Bigquery,我们有一个包含300列的csv文件。大小约为250 MB。试图通过Web UI将其上载到BQ,但模式规范很难实现。我预计BQ将识别文件头,但除非我遗漏了什么,否则它似乎无法识别。有什么办法吗?是的,您必须自己编写模式。Bigquery无法自动推断它。如果有300列,我建议编写一个脚本来自动创建模式 使用命令行工具(cf),如果某些行的架构错误/不同,则可以使用以下选项继续处理其他记录: --max_bad_records : The maximum number of bad rows to s

我们有一个包含300列的csv文件。大小约为250 MB。试图通过Web UI将其上载到BQ,但模式规范很难实现。我预计BQ将识别文件头,但除非我遗漏了什么,否则它似乎无法识别。有什么办法吗?

是的,您必须自己编写模式。Bigquery无法自动推断它。如果有300列,我建议编写一个脚本来自动创建模式

使用命令行工具(cf),如果某些行的架构错误/不同,则可以使用以下选项继续处理其他记录:

--max_bad_records : The maximum number of bad rows to skip before the load job 
在您的情况下,如果要跳过标题的第一行,可以是以下内容:

bq load --skip_leading_rows=1 --max_bad_records=10000 <destination_table> <data_source_uri> [<table_schema>]
bq加载--跳过前导行=1--最大坏记录=10000[]