Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/asp.net-mvc/16.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google bigquery 流式API上的500后端错误_Google Bigquery - Fatal编程技术网

Google bigquery 流式API上的500后端错误

Google bigquery 流式API上的500后端错误,google-bigquery,Google Bigquery,因此,我有一个运行的调度器,它使用“insertAll”流式API,每2秒将500行推送到bigquery。它在最初的几个批次中成功插入,但在一段时间后,它会收到以下异常 com.google.api.client.googleapis.json.googlejson响应异常:500内部服务器错误 { “代码”:500, “错误”:[{ “域”:“全局”, “消息”:“后端错误”, “原因”:“backendError” } ], “消息”:“后端错误” } 知道原因是什么吗 谢谢, 是的,我们

因此,我有一个运行的调度器,它使用“insertAll”流式API,每2秒将500行推送到bigquery。它在最初的几个批次中成功插入,但在一段时间后,它会收到以下异常
com.google.api.client.googleapis.json.googlejson响应异常:500内部服务器错误
{
“代码”:500,
“错误”:[{
“域”:“全局”,
“消息”:“后端错误”,
“原因”:“backendError”
} ],
“消息”:“后端错误”
}

知道原因是什么吗

谢谢,
是的,我们有同样的问题。由于我认为解决这个错误需要一段时间,我想知道我们现在可以做什么?现在,我将数据放回请求队列并重新发送,直到成功。这会导致数据重复吗?

您有作业id吗?唉,
insertAll
不会创建作业id,因此insertAll问题可能更难追踪。能否发送项目id和上次错误发生的大致时间?另外,错误500是一个大的查询错误,所以你也可以在这里报告它们:嗨,谢谢你的快速响应。刚才发生了上述情况。在以每2秒500行的速度推送约4000行后,它给出了此错误。我的项目Id是“deft-DEVERTY-628”。这件事发生在国际标准时间10:30(美国东部时间12:00)。也将在上述链接上报告,但如果可能,请让我们知道我们是否可以摆脱它,因为在我们的场景中,它需要在24x7之前以上述速率推送数据,这可以为我们提供帮助。谢谢。在遇到backendErrors时重新发送的情况下,tabledata.insertAll调用确实允许您提供唯一的insertId以启用重复数据消除:请参阅流式文档的部分。是的,但它说它基于best try,并且它至少会记住insertId一分钟。所以我想这根本不能保证没有重复的。它针对最近缓冲的行执行重复数据消除,而不是针对目标表中的全部数据。