Google bigquery 带bq和x2B的慢速插入;后端错误

Google bigquery 带bq和x2B的慢速插入;后端错误,google-bigquery,Google Bigquery,我们在将数据插入BigQuery时遇到问题。 我们位于荷兰 命令: adm@la478ads\U csv$time bq load--调试模式--跳过行1--最大坏记录100--项目id 197553342340 ad\U MONITING.ad\U bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz 加载操作中的BigQuery错误:后端错误 指标: 实际4m35.997s 用户0m0.963s sys 0m0.169s 文件大小: -rw rw rw-1行

我们在将数据插入BigQuery时遇到问题。 我们位于荷兰

命令:
adm@la478ads\U csv$time bq load--调试模式--跳过行1--最大坏记录100--项目id 197553342340 ad\U MONITING.ad\U bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz
加载操作中的BigQuery错误:后端错误

指标:
实际4m35.997s
用户0m0.963s
sys 0m0.169s

文件大小:
-rw rw rw-1行政管理员39M Jul 10 17:02 ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz
200MB未压缩


你能告诉我怎么做吗?

我正在调查我们后端的问题,但是如果你通过谷歌存储进行导入,你的运气可能会更好(尤其是来自欧洲)。如果运行
gsutil cp ad_monitoring.ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz gs://your_bucket/ad_monitoring.ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv
,则可以将bq命令行更改为:

bq load--debug_mode--skip_leading_rows 1--max_bad_records 100--project_id 197553342340 ad_monitoring.ad gs://your_bucket/ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz

我正在我们的日志中查找您的作业,看起来最近有一堆加载作业因“错误太多”而失败。如果您使用
bq ls-j
bq show-j
,您可以获得有关这些的更多信息