Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/mongodb/12.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Node.js MongoDB MapReduce内存问题_Node.js_Mongodb_Express_Mapreduce_Cron - Fatal编程技术网

Node.js MongoDB MapReduce内存问题

Node.js MongoDB MapReduce内存问题,node.js,mongodb,express,mapreduce,cron,Node.js,Mongodb,Express,Mapreduce,Cron,我对mongoDb mapReduce有问题。我正在对包含数百万mongoDB文档的集合进行聚合,聚合文档的输出存储在其他集合中。我使用cronjob来聚合每小时运行的所有文档,效果很好。大约cron作业需要10分钟来聚合所有文档。但在使用mapReduce运行聚合的同时,其他API调用会超时,因为mapReduce会占用整个内存,而API调用不会获取内存来读取/写入来自其他mongoDB集合的数据 所以,我想从你们这里了解一下,有没有办法为mongoDB mapReduce设置使用内存限制?所

我对mongoDb mapReduce有问题。我正在对包含数百万mongoDB文档的集合进行聚合,聚合文档的输出存储在其他集合中。我使用cronjob来聚合每小时运行的所有文档,效果很好。大约cron作业需要10分钟来聚合所有文档。但在使用mapReduce运行聚合的同时,其他API调用会超时,因为mapReduce会占用整个内存,而API调用不会获取内存来读取/写入来自其他mongoDB集合的数据

所以,我想从你们这里了解一下,有没有办法为mongoDB mapReduce设置使用内存限制?所以其他API调用可以在超时时间内读/写文档和响应

我在Mongolab“M1”群集上运行,该群集具有1.7 GB RAM和40 GB SSD块存储

我想请大家帮我解决这个问题


提前感谢。

您是在副本集、分片群集还是在单个实例上运行此功能?嘿,Markus,是的,我正在副本集、分片群集上运行。