Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/cmake/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google bigquery 2小时后,行加载作业失败,但未生成有用的错误消息_Google Bigquery - Fatal编程技术网

Google bigquery 2小时后,行加载作业失败,但未生成有用的错误消息

Google bigquery 2小时后,行加载作业失败,但未生成有用的错误消息,google-bigquery,Google Bigquery,这是我加载工作的屏幕截图。上面写着“意外,请再试一次”,没有任何其他信息。有什么方法可以得到更多的细节吗?或者谷歌的人能仔细看看日志,告诉我为什么失败了吗 bq显示: 作业tzgqnxt:作业016afefcfc0a42089822d621cf3d6ace 已处理的作业类型状态开始持续时间字节 负载故障27 Jul 10:32:05 2:00:09 作业执行期间遇到的错误。想不到的请再试一次 您是否安装了bq?如果是这样,您可以尝试调用bq show-j查看是否有其他信息 请注意,如果遇到超时

这是我加载工作的屏幕截图。上面写着“意外,请再试一次”,没有任何其他信息。有什么方法可以得到更多的细节吗?或者谷歌的人能仔细看看日志,告诉我为什么失败了吗

bq显示:

作业tzgqnxt:作业016afefcfc0a42089822d621cf3d6ace

已处理的作业类型状态开始持续时间字节


负载故障27 Jul 10:32:05 2:00:09

作业执行期间遇到的错误。想不到的请再试一次


您是否安装了
bq
?如果是这样,您可以尝试调用
bq show-j
查看是否有其他信息


请注意,如果遇到超时问题,可以通过将文件拆分为几个块并执行几个导入来解决,所有导入都使用相同的目标表。最终结果将是相同的。

鉴于此作业几乎正好在2小时内被终止,看起来您达到了导入和导出作业的两小时限制。这项工作可能不需要2个多小时——我查看了工作日志,看起来我们在大约550万行的CSV中遇到了一些问题。你能给我机会吗(tigani@google.com)在谷歌存储中读取该文件的访问权限,以便进一步调试?

我想知道它是否达到了2小时的时间限制?我还查看了此处列出的限制,我认为我没有突破任何限制。读完这篇文章后,我想知道这是否是一篇没有结尾的引文。我到机器前会检查的。由于定期维护,此作业的日志在接下来的24小时内不可用。他们回来后我会告诉你,看看我有没有更多的信息。谢谢——两天结束了:)bq没有显示更多的信息。我宁愿对任何时间限制有一个权威性的答案,也不愿花时间去弄清楚是否有人愿意看一看。我给了你权限。所以那个文件看起来是3.5 GB压缩的,如果我解压缩它,在一个有37 GB空闲空间的设备上,我的磁盘空间就用完了。。。。因此,导入需要2个多小时也就不足为奇了。是的,它几乎是200gb未压缩的:)所以你认为问题在于2小时的时间限制?BQ是即时解压文件,还是先解压,然后导入?是的,我想你达到了时间极限。目前,BigQuery正在进行动态解压缩,但由于无法查找压缩文件,我们必须同步处理该文件。