Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/google-app-engine/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google app engine 获得``deadlineexceederror'';在执行许多(~10K)DB更新时使用GAE_Google App Engine_Google Cloud Sql - Fatal编程技术网

Google app engine 获得``deadlineexceederror'';在执行许多(~10K)DB更新时使用GAE

Google app engine 获得``deadlineexceederror'';在执行许多(~10K)DB更新时使用GAE,google-app-engine,google-cloud-sql,Google App Engine,Google Cloud Sql,我在GAE+Google Cloud SQL上使用Django 1.4-我的代码工作得非常好(在Django使用本地sqlite3 db的开发人员上),但是当我尝试“刷新”db时,服务器错误(500)会阻塞我的代码。这涉及到解析某些文件,创建约10K条记录并保存它们(我使用commit_on_success批量保存它们) 有什么建议吗 谷歌应用程序引擎有一个请求允许的最长时间。如果请求耗时超过30秒,则会引发此错误。如果要上载大量数据,请直接从管理控制台导入,或将请求分成较小的数据块,或使用命令

我在GAE+Google Cloud SQL上使用Django 1.4-我的代码工作得非常好(在Django使用本地sqlite3 db的开发人员上),但是当我尝试“刷新”db时,服务器错误(500)会阻塞我的代码。这涉及到解析某些文件,创建约10K条记录并保存它们(我使用commit_on_success批量保存它们)


有什么建议吗

谷歌应用程序引擎有一个请求允许的最长时间。如果请求耗时超过30秒,则会引发此错误。如果要上载大量数据,请直接从管理控制台导入,或将请求分成较小的数据块,或使用命令行
python manage.py dbshell
从计算机上载数据。

对于耗时超过30秒的任务,应使用


此外,当批处理操作太大时,数据库操作也可能超时。尝试使用较小的批处理。

对于前端请求,60秒后会出现此错误。()

解决方案选项:

  • 使用(同样规定了10分钟的时间限制,这实际上已经足够了)
  • 将任务分成更小的批。 我们如何做:我们在客户端将它分成小块,并重复调用它们
  • 这两种解决方案都能很好地工作,这取决于您如何拨打这些电话并希望得到结果。Taskqueue不会将结果返回给客户端