Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/joomla/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Mongodb Mongo大块不会分割_Mongodb_Sharding - Fatal编程技术网

Mongodb Mongo大块不会分割

Mongodb Mongo大块不会分割,mongodb,sharding,Mongodb,Sharding,我设置了3个碎片,但容量不足,所以我又添加了3个碎片。(每个碎片都是一个副本集)。但是数据并不是均匀地分布在集群中。我已将chunkSize设置为stock 64: mongos> db.settings.find( { _id:"chunksize" } ) { "_id" : "chunksize", "value" : 64 } 我认为这意味着当一个块达到64mb时,它会分成两个大小相等的块,两个块的大小都是32mb。这就是所证明的。这不对吗 以下是我的分片分布: mongos&g

我设置了3个碎片,但容量不足,所以我又添加了3个碎片。(每个碎片都是一个副本集)。但是数据并不是均匀地分布在集群中。我已将chunkSize设置为stock 64:

mongos> db.settings.find( { _id:"chunksize" } )
{ "_id" : "chunksize", "value" : 64 }
我认为这意味着当一个块达到64mb时,它会分成两个大小相等的块,两个块的大小都是32mb。这就是所证明的。这不对吗

以下是我的分片分布:

mongos> db.accounts.getShardDistribution()
Shard rs_0 at rs_0/mongo_rs_0_member_1:27018,mongo_rs_0_member_2:27019,mongo_rs_0_member_3:27020
 data : 137.62GiB docs : 41991598 chunks : 1882
 estimated data per chunk : 74.88MiB
 estimated docs per chunk : 22312

Shard rs_1 at rs_1/mongo_rs_1_member_1:27018,mongo_rs_1_member_2:27019,mongo_rs_1_member_3:27020
 data : 135.2GiB docs : 41159069 chunks : 1882
 estimated data per chunk : 73.56MiB
 estimated docs per chunk : 21869

Shard rs_2 at rs_2/mongo_rs_2_member_1:27018,mongo_rs_2_member_2:27019,mongo_rs_2_member_3:27020
 data : 219.92GiB docs : 69739096 chunks : 1882
 estimated data per chunk : 119.66MiB
 estimated docs per chunk : 37055

Shard rs_3 at rs_3/mongo_rs_3_member_1:27018,mongo_rs_3_member_2:27019,mongo_rs_3_member_3:27020
 data : 101.52GiB docs : 30650628 chunks : 1882
 estimated data per chunk : 55.23MiB
 estimated docs per chunk : 16286

Shard rs_4 at rs_4/mongo_rs_4_member_1:27018,mongo_rs_4_member_2:27019,mongo_rs_4_member_3:27020
 data : 103.38GiB docs : 31071379 chunks : 1883
 estimated data per chunk : 56.22MiB
 estimated docs per chunk : 16500

Shard rs_5 at rs_5/mongo_rs_5_member_1:27018,mongo_rs_5_member_2:27019,mongo_rs_5_member_3:27020
 data : 101.1GiB docs : 30516395 chunks : 1881
 estimated data per chunk : 55.04MiB
 estimated docs per chunk : 16223

Totals
 data : 798.77GiB docs : 245128165 chunks : 11292
 Shard rs_0 contains 17.23% data, 17.13% docs in cluster, avg obj size on shard : 3KiB
 Shard rs_1 contains 16.92% data, 16.79% docs in cluster, avg obj size on shard : 3KiB
 Shard rs_2 contains 27.53% data, 28.45% docs in cluster, avg obj size on shard : 3KiB
 Shard rs_3 contains 12.7% data, 12.5% docs in cluster, avg obj size on shard : 3KiB
 Shard rs_4 contains 12.94% data, 12.67% docs in cluster, avg obj size on shard : 3KiB
 Shard rs_5 contains 12.65% data, 12.44% docs in cluster, avg obj size on shard : 3KiB
这是怎么回事?如果前3个碎片/副本集的平均大小设置为chunkSize,那么该碎片/副本集的平均大小如何大于64mb?Rs_2是119mb!Rs_2拥有27.53%的数据,而它本应拥有16.6%的数据


我在这里该怎么办?我可以手动找到较大的块并将其拆分,但这很痛苦。我要降低我的尺码吗?是否需要运行一些服务/调用来自动执行此操作?

通常,在分割之前,块会变得太大,因为出现了一个错误的分片密钥。分片密钥是什么?它是用户的cookie,基数超过1000万,或者在某个地方。我们不能回答太多,因为这确实是一个DBA问题(因此,我们投票结束并将您的问题移到那里)但是,这个键存储了什么数据?所以基本上我假设您可能正在那里存储会话数据?会话会变得很大吗?您是否重新插入过切分键行?等等可能在rs_2上有一些块标记为jumbo,并且这个块不会被拆分,请阅读mongo文档如何查找jumbo块以及如何删除jumbo标志来自chunk,您有不同的数据分布,因为mongo基于chunk数量而不是数据大小跨集群迁移chunk,所以每个节点的chunk数量相等。