Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/mongodb/13.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Mongodb在收集800万行数据时速度较慢_Mongodb_Optimization_Database Schema_Nosql - Fatal编程技术网

Mongodb在收集800万行数据时速度较慢

Mongodb在收集800万行数据时速度较慢,mongodb,optimization,database-schema,nosql,Mongodb,Optimization,Database Schema,Nosql,我有800万行收藏,我是mongoDB的新手。 它加载20行非常慢 我该怎么做才能加快速度呢?可能需要添加索引 可能需要添加索引 需要更多信息。就像服务器的ram一样 优化步骤: 1.为查询字段编制索引 2.检查索引的存储大小。如果索引的大小大于RAM。MongoDB需要通过磁盘I/O读取数据。因此速度较慢 800万文档不是很大。这不是什么大问题。需要更多信息。就像服务器的ram一样 优化步骤: 1.为查询字段编制索引 2.检查索引的存储大小。如果索引的大小大于RAM。MongoDB需要通过磁盘

我有800万行收藏,我是mongoDB的新手。 它加载20行非常慢


我该怎么做才能加快速度呢?

可能需要添加索引


可能需要添加索引


需要更多信息。就像服务器的ram一样

优化步骤: 1.为查询字段编制索引 2.检查索引的存储大小。如果索引的大小大于RAM。MongoDB需要通过磁盘I/O读取数据。因此速度较慢


800万文档不是很大。这不是什么大问题。

需要更多信息。就像服务器的ram一样

优化步骤: 1.为查询字段编制索引 2.检查索引的存储大小。如果索引的大小大于RAM。MongoDB需要通过磁盘I/O读取数据。因此速度较慢


800万文档不是很大。这不是什么大问题。

当你说加载20行时,你是在说查询还是插入?当你说加载20行时,你是在说查询还是插入?