Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/multithreading/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 谷歌AppEngine和线程工人_Python_Multithreading_Google App Engine_Queue - Fatal编程技术网

Python 谷歌AppEngine和线程工人

Python 谷歌AppEngine和线程工人,python,multithreading,google-app-engine,queue,Python,Multithreading,Google App Engine,Queue,我目前正在尝试使用GoogleAppEngine开发一些东西,我正在使用Python作为我的运行时,需要一些关于设置以下内容的建议 我正在运行一个向客户端提供JSON数据的Web服务器,数据来自一个外部服务,我必须从中提取数据 我需要能够做的是运行一个后台系统,该系统将检查memcache,以查看是否有任何必需的ID,如果有ID,我需要从外部源获取该ID的一些数据,并将数据放在memecache中 如果有多个id,>30我需要能够尽可能快速高效地提取所有30个请求 我是Python开发和AppE

我目前正在尝试使用GoogleAppEngine开发一些东西,我正在使用Python作为我的运行时,需要一些关于设置以下内容的建议

我正在运行一个向客户端提供JSON数据的Web服务器,数据来自一个外部服务,我必须从中提取数据

我需要能够做的是运行一个后台系统,该系统将检查memcache,以查看是否有任何必需的ID,如果有ID,我需要从外部源获取该ID的一些数据,并将数据放在memecache中

如果有多个id,>30我需要能够尽可能快速高效地提取所有30个请求

我是Python开发和AppEngine的新手,所以你们能给我的任何建议都会很好

谢谢。

您可以使用“后端”或“任务队列”在后台运行进程。任务有10分钟的运行时间限制,后端没有运行时间限制。还有一个cronjob机制,可以定期触发请求

您可以使用“URLFetch”服务从外部服务器获取数据。

您可以使用“后端”或“任务队列”在后台运行进程。任务有10分钟的运行时间限制,后端没有运行时间限制。还有一个cronjob机制,可以定期触发请求


您可以使用“URLFetch”服务从外部服务器获取数据。

请注意,使用memcache作为前端和后端之间的通信机制是不可靠的——memcache的内容可能会在任何时候被部分或完全擦除(而且这种情况时有发生)


另外请注意,如果您事先不知道确切的密钥,则无法查询memcache。最好使用任务队列来排队请求,而不是使用memcache,或者使用数据存储作为存储机制。

请注意,使用memcache作为前端和后端之间的通信机制是不可靠的——memcache的内容可能随时被部分或完全擦除(这种情况时有发生)


另外请注意,如果您事先不知道确切的密钥,则无法查询memcache。最好使用任务队列对请求进行排队,而不是使用memcache,或使用数据存储作为存储机制。

s/20/10/分钟任务队列的截止时间s/20/10/分钟任务队列的截止时间如果我对任务进行排队,它会得到exe正确剪切一次,然后在任务内我可以重新排队?是的,任务可以创建其他任务。但是,如果任务返回HTTP错误,将重试(指数后退)。请查看我们的优秀任务队列文档。因此,如果我对一个任务进行排队,它将执行一次,然后在该任务中我可以重新排队?是的,任务可以创建其他任务。但是,如果任务返回HTTP错误,它将重试(指数后退)。请查看我们的优秀任务队列文档。