Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/lua/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Php 过程同时进料_Php_Feed - Fatal编程技术网

Php 过程同时进料

Php 过程同时进料,php,feed,Php,Feed,我正在开发一个垂直搜索引擎。当用户搜索某个项目时,我们的网站会从不同的市场加载大量提要。不幸的是,快速加载、解析和排序提要内容需要很长时间,用户会遇到一些延迟。我无法将这些提要保存在数据库中,也无法缓存它们,因为提要的内容不断变化 有没有一种方法可以在PHP中同时处理多个提要?我应该使用popen还是它有更好的php并行处理方法 谢谢 Russ如果使用curl获取提要,可以查看函数,它允许并行执行多个HTTP请求。 (给定的示例太长,无法复制到此处。) 这至少可以让你花更少的时间获取提要 考虑到

我正在开发一个垂直搜索引擎。当用户搜索某个项目时,我们的网站会从不同的市场加载大量提要。不幸的是,快速加载、解析和排序提要内容需要很长时间,用户会遇到一些延迟。我无法将这些提要保存在数据库中,也无法缓存它们,因为提要的内容不断变化

有没有一种方法可以在PHP中同时处理多个提要?我应该使用popen还是它有更好的php并行处理方法

谢谢


Russ

如果使用curl获取提要,可以查看函数,它允许并行执行多个HTTP请求。
(给定的示例太长,无法复制到此处。)

这至少可以让你花更少的时间获取提要


考虑到您的服务器在等待HTTP请求结束时几乎什么都不做,我想并行化这些不会有什么害处。
另一方面,如果对这些提要进行并行解析是CPU密集型操作(如果是XML解析之类的操作,则可能会造成一些损害)


作为旁注:是否真的不可能缓存某些数据?如果只是几分钟的话?
例如,使用cron作业获取最常用的数据并将其存储在缓存中可能会有很大帮助


我相信,对于用户来说,一个快速响应的网站比第二次搜索结果时真正更新的网站更重要。。。如果你的网站没有响应,他们会去其他地方

如果您使用curl来获取提要,您可以查看该函数,它允许并行执行多个HTTP请求。
(给定的示例太长,无法复制到此处。)

这至少可以让你花更少的时间获取提要


考虑到您的服务器在等待HTTP请求结束时几乎什么都不做,我想并行化这些不会有什么害处。
另一方面,如果对这些提要进行并行解析是CPU密集型操作(如果是XML解析之类的操作,则可能会造成一些损害)


作为旁注:是否真的不可能缓存某些数据?如果只是几分钟的话?
例如,使用cron作业获取最常用的数据并将其存储在缓存中可能会有很大帮助


我相信,对于用户来说,一个快速响应的网站比第二次搜索结果时真正更新的网站更重要。。。如果你的网站没有响应,他们会去其他地方

我同意,人们原谅缓存的时间要比原谅缓慢的响应时间早得多。每隔几分钟重新进行一次缓存。

我同意,人们原谅缓存的时间要比原谅缓慢的响应时间早得多。每隔几分钟重新设置一次。

您必须设置一个结果页面,通过JavaScript对服务器同时执行多个请求。您可以通过一个简单的AJAX请求来实现这一点,然后在加载完成后将返回的数据注入DOM。PHP目前不支持线程。并行化请求是目前唯一的解决方案

下面是一些使用jQuery从网站加载远程数据并将其注入DOM的示例:

您必须设置一个结果页面,通过JavaScript对服务器同时执行多个请求。您可以通过一个简单的AJAX请求来实现这一点,然后在加载完成后将返回的数据注入DOM。PHP目前不支持线程。并行化请求是目前唯一的解决方案

下面是一些使用jQuery从网站加载远程数据并将其注入DOM的示例: