Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/mongodb/11.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Node.js toArray在时间方面提高性能的替代方案_Node.js_Mongodb_Newrelic_Toarray - Fatal编程技术网

Node.js toArray在时间方面提高性能的替代方案

Node.js toArray在时间方面提高性能的替代方案,node.js,mongodb,newrelic,toarray,Node.js,Mongodb,Newrelic,Toarray,我使用newrelic来了解网站性能的统计数据,并且我知道对实体执行get命令花费了太多时间。 “MongoDB ms.users toArray”这一细分市场大约需要248000毫秒 有什么改进时间的建议吗?一个“七秒钟”肯定是几千个结果(如果不是上万个的话),您真的应该使用游标响应,并且可能是流输出。无论是在时间上还是在内存使用上。但真正的问题是,你可能需要这么多的结果做什么?我感觉你有一些其他的代码处理这个结果,这才是真正的问题。查询数据库的总体思路是让它们在处理过程中完成工作,而不是在应

我使用newrelic来了解网站性能的统计数据,并且我知道对实体执行get命令花费了太多时间。 “MongoDB ms.users toArray”这一细分市场大约需要248000毫秒

有什么改进时间的建议吗?

一个“七秒钟”肯定是几千个结果(如果不是上万个的话),您真的应该使用游标响应,并且可能是流输出。无论是在时间上还是在内存使用上。但真正的问题是,你可能需要这么多的结果做什么?我感觉你有一些其他的代码处理这个结果,这才是真正的问题。查询数据库的总体思路是让它们在处理过程中完成工作,而不是在应用程序中。