Cassandra中的数据重新分区
作为后续工作,我想到了Vnode。感谢“西蒙·丰塔纳·奥斯卡森” 当我尝试使用VNode探索数据分区时,我有几个问题 我试图观察2节点/nodetool环中的分区分布 因此,根据我在两个节点中的观察,节点61的值在-9207297862311651到-918551610496567222之间,随着一个范围的继续 注意:从'-90395729396575206977'到'-9019927187583981554'的分区范围当前由节点61处理 现在,我向集群添加了一个节点,而不是种子节点,我运行了。/nodetool环 现在我观察到相同的分区范围被赋予了新节点62, i、 e,范围从-9039572936575206977到-903184808088695747480由节点61处理,但是-9031848088695747480到-9019927187583981555由节点62新节点处理 1那么这是否意味着,在集群中添加一个新节点将分布现有的分区范围 2是否有一种方法可以使用nodetool之类的实用工具来观察Cassandra中的复制分区Cassandra中的数据重新分区,cassandra,cassandra-3.0,Cassandra,Cassandra 3.0,作为后续工作,我想到了Vnode。感谢“西蒙·丰塔纳·奥斯卡森” 当我尝试使用VNode探索数据分区时,我有几个问题 我试图观察2节点/nodetool环中的分区分布 因此,根据我在两个节点中的观察,节点61的值在-9207297862311651到-918551610496567222之间,随着一个范围的继续 注意:从'-90395729396575206977'到'-9019927187583981554'的分区范围当前由节点61处理 现在,我向集群添加了一个节点,而不是种子节点,我运行了。
3我有3个RF为2的节点,如何仅在节点62中查看可用数据?1添加节点时,Cassandra将首先选择新节点接管的良好范围。然后,它将创建256个新的令牌范围,它们只是现有令牌范围的一部分。这意味着在集群中不使用vnode时,新节点从多个节点获取令牌,而不是每个RF仅获取一个令牌,这使得流速度更快
这是否回答了你的问题 第2点和第3点非常棒,但我不相信第1点,例如:你是说节点1的分区从1到100,节点3新添加的节点的分区从50到100,如果是这样的话,复制是如何发生的?我能解释一下它的优点吗?我没有理解您的流式处理的要点:节点1将使用令牌50-100将其数据流式处理到节点3。它仍然保留数据,但不对其负责,因此在您执行“nodetool清理”之前,它只占用空间。流:我的意思是,与多个节点共享多个令牌比与几个节点共享一个令牌更好。想象一下,更换30节点集群中的故障节点。使用vnodes,您的替换节点可以同时从多个节点流式传输,从而加快进程并分散增加的负载。如果没有RF 3和VNode,则只有2个节点保存该数据。请检查此项:
Two seed nodes (2 node)
172.30.56.61 rack1 Up Normal 105.19 KiB 100.00% -9207297847862311651
172.30.56.61 rack1 Up Normal 105.19 KiB 100.00% -9185516104965672922
172.30.56.61 rack1 Up Normal 105.19 KiB 100.00% -9135483708655236026
172.30.56.60 rack1 Up Normal 102.77 KiB 100.00% -9106737079237505681
172.30.56.61 rack1 Up Normal 105.19 KiB 100.00% -9078521344187921602
172.30.56.61 rack1 Up Normal 105.19 KiB 100.00% -9051897156173923903
172.30.56.61 rack1 Up Normal 105.19 KiB 100.00% -9049800264451581717
172.30.56.61 rack1 Up Normal 105.19 KiB 100.00% -9039572936575206977
172.30.56.60 rack1 Up Normal 102.77 KiB 100.00% -9019927187583981555
172.30.56.60 rack1 Up Normal 102.77 KiB 100.00% -9006071175095726599
172.30.56.60 rack1 Up Normal 102.77 KiB 100.00% -8995415525773810853
172.30.56.60 rack1 Up Normal 102.77 KiB 100.00% -8949342263103866059
172.30.56.61 rack1 Up Normal 105.19 KiB 100.00% -8880432529087253108
172.30.56.61 rack1 Up Normal 105.19 KiB 100.00% -8859265089807316498
172.30.56.61 rack1 Up Normal 105.19 KiB 100.00% -8844286905987198633
172.30.56.61 rack1 Up Normal 105.19 KiB 100.00% -8832739468389117376
Two seed nodes with one new node (3 node)
172.30.56.61 rack1 Up Normal 104.12 KiB 64.73% -9207297847862311651
172.30.56.61 rack1 Up Normal 104.12 KiB 64.73% -9185516104965672922
172.30.56.61 rack1 Up Normal 104.12 KiB 64.73% -9135483708655236026
172.30.56.60 rack1 Up Normal 102.77 KiB 63.57% -9106737079237505681
172.30.56.61 rack1 Up Normal 104.12 KiB 64.73% -9078521344187921602
172.30.56.61 rack1 Up Normal 104.12 KiB 64.73% -9051897156173923903
172.30.56.61 rack1 Up Normal 104.12 KiB 64.73% -9049800264451581717
172.30.56.61 rack1 Up Normal 104.12 KiB 64.73% -9039572936575206977
172.30.56.62 rack1 Up Normal 103.7 KiB 71.70% -9031848008695747480
172.30.56.62 rack1 Up Normal 103.7 KiB 71.70% -9028974600706382491
172.30.56.60 rack1 Up Normal 102.77 KiB 63.57% -9019927187583981555