Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/meteor/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Mongodb 如何处理流星中的大量数据?_Mongodb_Meteor_Publish Subscribe_Minimongo - Fatal编程技术网

Mongodb 如何处理流星中的大量数据?

Mongodb 如何处理流星中的大量数据?,mongodb,meteor,publish-subscribe,minimongo,Mongodb,Meteor,Publish Subscribe,Minimongo,我有一个分页栏,可以控制我在表中显示的数据(每次移动到新页面时我都会重新订阅)。我正在处理的集合有25000个文档,它可能得到100000个文档。在前几页中,一切似乎都按预期进行,但在第8页之后,事情开始变得越来越慢,如果我一次从1跳到10,数据就不会加载(如果我从1跳到最后一页,情况也是如此)。我在订阅和发布时一直在检查skip和limit的值,它们总是正确的,所以问题是,有没有更好的方法来处理订阅和发布中的大量数据????这是我代码的一部分 // both c_frameworks = ne

我有一个分页栏,可以控制我在表中显示的数据(每次移动到新页面时我都会重新订阅)。我正在处理的集合有25000个文档,它可能得到100000个文档。在前几页中,一切似乎都按预期进行,但在第8页之后,事情开始变得越来越慢,如果我一次从1跳到10,数据就不会加载(如果我从1跳到最后一页,情况也是如此)。我在订阅和发布时一直在检查skip和limit的值,它们总是正确的,所以问题是,有没有更好的方法来处理订阅和发布中的大量数据????这是我代码的一部分

// both
c_frameworks = new Mongo.Collection("framework");

//client
var skip = this.data.limit * obj.page // page number 0 ... 2546
Meteor.subscribe("framework", skip, this.data.limit);
Template.myT.helper({
    return c_frameworks.find({}, {
                                  sort: ["_id", "asc"],
                                  skip: this.skip, 
                                  limit: this.limit
                                  });
});

// server
Meteor.publish("framework", function (mySkip, myLimit) {
    check(mySkip, Number);
    check(myLimit, Number);
    return c_frameworks.find({}, {sort: ["_id", "asc"], skip: mySkip, limit: myLimit});
});
更新:

我刚刚发现了这个信息,它说明了为什么这种方法非常慢,但解决方案不是理想的


juanp帮我一个忙,在助手中放一个
console.log
,告诉我你看到
console.log
完成了多少次!20次,数量相同。limit,我会用我刚找到的一些信息更新我的问题。如果你得到console.log 20次,只要认为帮助程序运行了20次,这意味着你运行了20次查询。很好的呼叫!:-)我修复了这个错误,第一对页面加载速度更快,但问题在第十个页面之后仍然存在。你是否在每个团队离开页面时都销毁了页面?Template.example.destroy类似的东西,这样每个页面都将是新的