Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/mongodb/12.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/wordpress/11.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Mongodb 处理集合中的几个大型bson文档_Mongodb - Fatal编程技术网

Mongodb 处理集合中的几个大型bson文档

Mongodb 处理集合中的几个大型bson文档,mongodb,Mongodb,我想在MongoDB集合中插入超过一百万个JSON文档。集合非常稳定(无插入、无删除),但需要大量查询。问题是,这些文档中有12个大于16MB,并且被拒绝 我已经看过GridFS文档,但似乎GridFS文档被视为二进制文件,可以存储为块,但不能查询。如果可能的话,我还希望避免拆分文档并将它们存储在单独的集合中,因为在大多数情况下,这会使查询变得不必要的复杂(即,单独查询集合并在它们之间进行连接),我只有12个有问题的文档 有没有推荐的方法来处理这个问题?有没有办法放宽16MB的限制 您存储的是什

我想在MongoDB集合中插入超过一百万个JSON文档。集合非常稳定(无插入、无删除),但需要大量查询。问题是,这些文档中有12个大于16MB,并且被拒绝

我已经看过GridFS文档,但似乎GridFS文档被视为二进制文件,可以存储为块,但不能查询。如果可能的话,我还希望避免拆分文档并将它们存储在单独的集合中,因为在大多数情况下,这会使查询变得不必要的复杂(即,单独查询集合并在它们之间进行连接),我只有12个有问题的文档


有没有推荐的方法来处理这个问题?有没有办法放宽16MB的限制

您存储的是什么类型的数据?16mb的限制是为了系统的稳定性,所以(有意)没有解决办法。16mb限制的一个副作用是需要重新考虑您的收集策略。一百万份文件中只有12份。也许你可以把它们放在一边,把它们分开,或者通过去掉不必要的信息来减小它们的总体大小。在这种情况下,我认为超过16MB的限制就可以了。我主要使用MongoDB来探索这个数据集,而不是以特定的方式存储或管理它。但是,我已经插入了适合的文档,并且我将12个大文档分开。现在我必须找到另一种方法来处理这些问题。有一张JIRA罚单,上面有很多关于将限制从以前的4mb提高到16mb的争论。如果你有耐心通读它,你会学到一些关于它为什么会在那里的好知识。