Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/287.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Php 大量的JSON请求和许多http请求,这是最好的管理方式吗?_Php_Mysql_Json_Http_Server - Fatal编程技术网

Php 大量的JSON请求和许多http请求,这是最好的管理方式吗?

Php 大量的JSON请求和许多http请求,这是最好的管理方式吗?,php,mysql,json,http,server,Php,Mysql,Json,Http,Server,我正在进行一个项目,其中将有许多用户,每个用户都有一个特定的密钥。该键将用于通过http请求数据并获取一些JSON数据。问题是我无法发送一个请求来获取所有更新的数据。我每个人只能提出一个请求 我曾考虑过使用cron作业,但即使如此,对于大量用户,我也看到可能有数千个请求同时运行 另一个想法是让它只在用户登录时更新,而一旦登录,则每隔一段时间更新一次,并在注销时停止 这里的问题是,如果有很多用户登录,它将再次创建大量请求 我的另一个想法是使用云计算来分发请求。不利的一面是主服务器(保存json数据

我正在进行一个项目,其中将有许多用户,每个用户都有一个特定的密钥。该键将用于通过http请求数据并获取一些JSON数据。问题是我无法发送一个请求来获取所有更新的数据。我每个人只能提出一个请求

我曾考虑过使用cron作业,但即使如此,对于大量用户,我也看到可能有数千个请求同时运行

另一个想法是让它只在用户登录时更新,而一旦登录,则每隔一段时间更新一次,并在注销时停止

这里的问题是,如果有很多用户登录,它将再次创建大量请求

我的另一个想法是使用云计算来分发请求。不利的一面是主服务器(保存json数据)将因此而承受沉重的负载,主要是因为我的脚本。(试图避免这种情况)

这里最好的方法是什么

示例

主服务器:保存所有动态数据。
Web服务器:需要所有动态数据。
Web服务器上的1000个用户=对mainserver的1000个请求

Web服务器通过http向mainserver发送请求。
mainserver使用JSON格式的数据进行回复。

限制:每个请求1次查询(仅针对单个用户的数据)

我需要1000个查询来获取所有用户的数据

你的问题有点含糊。你能用一个例子来说明问题的症结所在吗?下面用一个例子来更新:)假设“mainserver”是指数据库服务器,持久的数据库连接会有好处吗?我可能应该注意到这是mainserver上的一个API。还有一个我没有sql访问权限,或者除了http之外的任何其他访问权限。我看不到激战API v2的限制。他们应该从缓存中返回玩家数据,所以他们不太可能注意到你的10000个请求。另一方面,您可以定义单独的脚本,该脚本从队列中获取密钥(例如每秒500个请求)、发送请求和更新用户数据。通过这种方式,您可以控制向API发送多少请求。阅读有关使用相关编程语言或使用相关数据库实现队列的信息,或者如果您确实具有高负载,请使用RabbitMQ之类的工具