Mongodb Mongo大块不会分割
我设置了3个碎片,但容量不足,所以我又添加了3个碎片。(每个碎片都是一个副本集)。但是数据并不是均匀地分布在集群中。我已将chunkSize设置为stock 64:Mongodb Mongo大块不会分割,mongodb,sharding,Mongodb,Sharding,我设置了3个碎片,但容量不足,所以我又添加了3个碎片。(每个碎片都是一个副本集)。但是数据并不是均匀地分布在集群中。我已将chunkSize设置为stock 64: mongos> db.settings.find( { _id:"chunksize" } ) { "_id" : "chunksize", "value" : 64 } 我认为这意味着当一个块达到64mb时,它会分成两个大小相等的块,两个块的大小都是32mb。这就是所证明的。这不对吗 以下是我的分片分布: mongos&g
mongos> db.settings.find( { _id:"chunksize" } )
{ "_id" : "chunksize", "value" : 64 }
我认为这意味着当一个块达到64mb时,它会分成两个大小相等的块,两个块的大小都是32mb。这就是所证明的。这不对吗
以下是我的分片分布:
mongos> db.accounts.getShardDistribution()
Shard rs_0 at rs_0/mongo_rs_0_member_1:27018,mongo_rs_0_member_2:27019,mongo_rs_0_member_3:27020
data : 137.62GiB docs : 41991598 chunks : 1882
estimated data per chunk : 74.88MiB
estimated docs per chunk : 22312
Shard rs_1 at rs_1/mongo_rs_1_member_1:27018,mongo_rs_1_member_2:27019,mongo_rs_1_member_3:27020
data : 135.2GiB docs : 41159069 chunks : 1882
estimated data per chunk : 73.56MiB
estimated docs per chunk : 21869
Shard rs_2 at rs_2/mongo_rs_2_member_1:27018,mongo_rs_2_member_2:27019,mongo_rs_2_member_3:27020
data : 219.92GiB docs : 69739096 chunks : 1882
estimated data per chunk : 119.66MiB
estimated docs per chunk : 37055
Shard rs_3 at rs_3/mongo_rs_3_member_1:27018,mongo_rs_3_member_2:27019,mongo_rs_3_member_3:27020
data : 101.52GiB docs : 30650628 chunks : 1882
estimated data per chunk : 55.23MiB
estimated docs per chunk : 16286
Shard rs_4 at rs_4/mongo_rs_4_member_1:27018,mongo_rs_4_member_2:27019,mongo_rs_4_member_3:27020
data : 103.38GiB docs : 31071379 chunks : 1883
estimated data per chunk : 56.22MiB
estimated docs per chunk : 16500
Shard rs_5 at rs_5/mongo_rs_5_member_1:27018,mongo_rs_5_member_2:27019,mongo_rs_5_member_3:27020
data : 101.1GiB docs : 30516395 chunks : 1881
estimated data per chunk : 55.04MiB
estimated docs per chunk : 16223
Totals
data : 798.77GiB docs : 245128165 chunks : 11292
Shard rs_0 contains 17.23% data, 17.13% docs in cluster, avg obj size on shard : 3KiB
Shard rs_1 contains 16.92% data, 16.79% docs in cluster, avg obj size on shard : 3KiB
Shard rs_2 contains 27.53% data, 28.45% docs in cluster, avg obj size on shard : 3KiB
Shard rs_3 contains 12.7% data, 12.5% docs in cluster, avg obj size on shard : 3KiB
Shard rs_4 contains 12.94% data, 12.67% docs in cluster, avg obj size on shard : 3KiB
Shard rs_5 contains 12.65% data, 12.44% docs in cluster, avg obj size on shard : 3KiB
这是怎么回事?如果前3个碎片/副本集的平均大小设置为chunkSize,那么该碎片/副本集的平均大小如何大于64mb?Rs_2是119mb!Rs_2拥有27.53%的数据,而它本应拥有16.6%的数据
我在这里该怎么办?我可以手动找到较大的块并将其拆分,但这很痛苦。我要降低我的尺码吗?是否需要运行一些服务/调用来自动执行此操作?通常,在分割之前,块会变得太大,因为出现了一个错误的分片密钥。分片密钥是什么?它是用户的cookie,基数超过1000万,或者在某个地方。我们不能回答太多,因为这确实是一个DBA问题(因此,我们投票结束并将您的问题移到那里)但是,这个键存储了什么数据?所以基本上我假设您可能正在那里存储会话数据?会话会变得很大吗?您是否重新插入过切分键行?等等可能在rs_2上有一些块标记为jumbo,并且这个块不会被拆分,请阅读mongo文档如何查找jumbo块以及如何删除jumbo标志来自chunk,您有不同的数据分布,因为mongo基于chunk数量而不是数据大小跨集群迁移chunk,所以每个节点的chunk数量相等。