不一致的Cassandra system.peers状态

不一致的Cassandra system.peers状态,cassandra,Cassandra,我们正在Kubernetess上运行6节点Cassandra(3.11.2)集群。最近我注意到system.peers表中的数据不一致。但是,system.local中的数据似乎正常nodetool describecluster也不报告任何问题 下面是system.peers和system.local查询的匿名结果。我通过一次将端口转发到单个节点来执行它们(我希望这样可以跳过负载平衡策略并直接访问节点) 系统的这种状态是否有害?或者这是意料之中的事 从系统中选择对等、架构\u版本。对等 nod

我们正在Kubernetess上运行6节点Cassandra(3.11.2)集群。最近我注意到
system.peers
表中的数据不一致。但是,
system.local
中的数据似乎正常
nodetool describecluster
也不报告任何问题

下面是system.peers和system.local查询的匿名结果。我通过一次将端口转发到单个节点来执行它们(我希望这样可以跳过负载平衡策略并直接访问节点)

系统的这种状态是否有害?或者这是意料之中的事

从系统中选择对等、架构\u版本。对等

node 0
peer | schema_version
IP1 | schema2
IP2 | schema1
IP3 | schema1
IP4 | null
IP5 | schema1
IP6 | schema1
IP7 | schema1

node 1
peer | schema_version
IP8 | null
IP9 | schema1
IP3 | schema1
IP5 | schema1
IP6 | schema1
IP7 | schema1

node 2
peer | schema_version
IP11 | null
IP2 | schema1
IP9 | schema1
IP3 | schema1
IP4 | schema3
IP10 | null
IP5 | schema1
IP6 | schema1

node 3
peer | schema_version
IP12 | schema3
IP2 | schema1
IP9 | schema1
IP13 | null
IP3 | schema1
IP5 | schema1
IP7 | schema1

node 4
peer | schema_version
IP2 | schema1
IP9 | schema1
IP3 | schema1
IP6 | schema1
IP7 | schema1

node 5
peer | schema_version
IP8 | schema3
IP2 | schema1
IP9 | schema1
IP5 | schema1
IP6 | schema1
IP7 | schema1
从system.local中选择键、广播地址、模式版本

node 0
key | broadcast_address | schema_version
local | IP9 | schema1

node 1
key | broadcast_address | schema_version
local | IP2 | schema1

node 2
key | broadcast_address | schema_version
local | IP7 | schema1

node 3
key | broadcast_address | schema_version
local | IP6 | schema1

node 4
key | broadcast_address | schema_version
local | IP5 | schema1

node 5
key | broadcast_address | schema_version
local | IP3 | schema1
nodetool描述集群

Cluster Information:
  Name: CLUSTER_NAME
  Snitch: org.apache.cassandra.locator.GossipingPropertyFileSnitch
  DynamicEndPointSnitch: enabled
  Partitioner: org.apache.cassandra.dht.Murmur3Partitioner
  Schema versions:
    e718e690-d474-376e-8020-ed0eba5b6797: [IP5, IP9, IP3, IP2, IP6, IP7]

这是意外的,但已知会发生,例如:

这可能会导致不同的客户机驱动程序出现问题(例如,请参阅和),尽管大多数客户机库会忽略此类损坏的对等记录,并在发生时记录警告

既然您提到了Kubernetes,是否有可能频繁更换节点?我想知道C*中是否有一个潜在的bug,它没有正确地删除旧的对等项。过去曾报告过一些问题,这些问题已通过
无法重现
解决

如果你能很容易地重现这个问题,如果你能描述这个问题以及如何重现它,这将对社区非常有帮助。否则,如果您没有时间,如果您可以描述您的kubernetes设置(即您使用的是社区运营商还是其他什么?),并解释您可能正在进行的一些可能有助于实现这一点的操作(即更换节点),我可以在有时间时进行研究