带有DR DC的Cassandra具有意外的不均匀数据分布
我们正试图提供一个卡桑德拉集群作为KV存储 我们正在生产DC上部署一个3节点的生产群集,但我们还希望在灾难恢复DC上有一个节点作为灾难恢复副本 使用我们拥有的PropertyFileSnitch带有DR DC的Cassandra具有意外的不均匀数据分布,cassandra,disaster-recovery,Cassandra,Disaster Recovery,我们正试图提供一个卡桑德拉集群作为KV存储 我们正在生产DC上部署一个3节点的生产群集,但我们还希望在灾难恢复DC上有一个节点作为灾难恢复副本 使用我们拥有的PropertyFileSnitch 10.1.1.1=DC1:R1 10.1.1.2=DC1:R1 10.1.1.3=DC1:R1 10.2.1.1=DC2:R1 我们计划使用具有以下定义的键空间: CREATE KEYSPACE "cassandraKV" WITH REPLICATION = {'class' : 'Ne
10.1.1.1=DC1:R1
10.1.1.2=DC1:R1
10.1.1.3=DC1:R1
10.2.1.1=DC2:R1
我们计划使用具有以下定义的键空间:
CREATE KEYSPACE "cassandraKV"
WITH REPLICATION = {'class' : 'NetworkTopologyStrategy', 'DC1' : 2, 'DC2' : 1};
为了实现以下目标:
2个副本分布在DC1中的3个节点之间(每个节点占总数据的66%),同时仍允许单个节点在不丢失任何数据的情况下停机。
DC2中的1个复制副本(每个节点的数据总量的100%)
我们看到所有权分布在每个节点上25%,而在DC1中,每个节点上33%,在DC2中100%
上述配置正确吗
谢谢我猜您运行nodetool Status时没有指定键空间。这将向您展示集群中令牌的一般分布情况,而这些令牌并不代表您的“cassandraKV”键空间 在运行nodetool状态“cassandraKV”时,您应该看到
Datacenter: DC1
10.1.1.1: 66%
10.1.1.2: 66%
10.1.1.3: 66%
Datacenter: DC2
10.2.1.1: 100%
对于DC1节点,您应该看到66%,因为每个节点拥有其主范围的一个副本(33%)和它正在复制的任何内容的一个副本(33%)
而DC2拥有您当前持有的所有数据的100%