Json_解码、php、wordpress

Json_解码、php、wordpress,php,json,wordpress,curl,Php,Json,Wordpress,Curl,这里有没有人有在Php中使用Json_解码100秒流的经验?我需要看看是否有一种方法可以解析这些json流,而无需将它们加载到内存中,因为我的网站上有5000多个json新闻流。例如,和paged=2,paged=3,等等 我需要找到一种方法来搜索这些文件中的值,而不将它们加载到内存中。只需搜索这些提要页面,如果搜索值匹配,则显示结果 file_get_contents/json_decode完成一个简单的搜索查询需要很长时间。 多重旋度也有同样的作用。这是一个非常有趣的问题,您必须使用流读取器

这里有没有人有在Php中使用Json_解码100秒流的经验?我需要看看是否有一种方法可以解析这些json流,而无需将它们加载到内存中,因为我的网站上有5000多个json新闻流。例如,和paged=2,paged=3,等等

我需要找到一种方法来搜索这些文件中的值,而不将它们加载到内存中。只需搜索这些提要页面,如果搜索值匹配,则显示结果

file_get_contents/json_decode完成一个简单的搜索查询需要很长时间。
多重旋度也有同样的作用。

这是一个非常有趣的问题,您必须使用流读取器

如果您检查,您可以看到在“process”方法中您收到一个部分JSON,您可以对它进行解码并检查它是否与搜索的词匹配,如果不匹配,您可以释放内存来取消var

或者另一个,:


JsonStreamingParser的作者有一个。

好的,所以我开始运行它,但我想你误解了我的问题。问题是关于解析大量文件。。不是大数据文件。我的数据以每页10条新闻的形式显示。但我有大约5000页这样的页面。如果我必须从这5000页中搜索一个主题,那么循环将永远无法遍历所有URL,然后解码并匹配数据。有没有一种方法可以让我们简单地浏览搜索词的所有json URL,如果匹配,只需带上该新闻项并对其进行解码即可获得其内容?
$stream = fopen('doc.json', 'r');
$listener = new YourListener();
try {
  $parser = new JsonStreamingParser_Parser($stream, $listener);
  $parser->parse();
} catch (Exception $e) {
  fclose($stream);
  throw $e;
}