Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/mongodb/11.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/cmake/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Mongodb 在大型数据集上缓慢删除,我们如何才能有效地执行此操作?_Mongodb - Fatal编程技术网

Mongodb 在大型数据集上缓慢删除,我们如何才能有效地执行此操作?

Mongodb 在大型数据集上缓慢删除,我们如何才能有效地执行此操作?,mongodb,Mongodb,我们需要删除大量数据(例如,从我们的一个集合中,我们需要删除大约10亿个文档)。 每个集合在createdAt字段上都有一个索引(desc),因此我们尝试: db.ourCollection.remove({'createdAt': {$lt: ISODate('2019-07-01')}}) 这样做每小时删除大约100万个文档,速度非常慢 副本集正在不断写入 我们如何才能更高效、更可靠地删除这么多数据 v3.6.15 亚马逊Linux AMI 2018.03版

我们需要删除大量数据(例如,从我们的一个集合中,我们需要删除大约10亿个文档)。 每个集合在
createdAt
字段上都有一个
索引(desc)
,因此我们尝试:

db.ourCollection.remove({'createdAt': {$lt: ISODate('2019-07-01')}})
这样做每小时删除大约100万个文档,速度非常慢

副本集正在不断写入

我们如何才能更高效、更可靠地删除这么多数据

v3.6.15

亚马逊Linux AMI 2018.03版