Hadoop';HDFS的高可用性特性会影响CAP定理吗?

Hadoop';HDFS的高可用性特性会影响CAP定理吗?,hadoop,cap-theorem,availability,Hadoop,Cap Theorem,Availability,根据到目前为止我所读到的关于CAP定理的所有内容,没有一个分布式系统能够提供这三个方面:可用性、一致性和分区容差 现在,Hadoop 2.x引入了一个新特性,可以对其进行配置,以消除Hadoop集群的单点故障(单名称节点)。这样,集群就变得高可用性、一致性和分区容错性。 我说得对吗?还是我遗漏了什么?根据CAP的说法,如果系统试图提供所有三种功能,它应该在延迟方面付出代价,新功能是否会将此延迟添加到集群中?还是Hadoop破解了CAP定理?HDFS在多个相关故障(例如,三个故障数据节点具有相同的

根据到目前为止我所读到的关于CAP定理的所有内容,没有一个分布式系统能够提供这三个方面:可用性、一致性和分区容差

现在,Hadoop 2.x引入了一个新特性,可以对其进行配置,以消除Hadoop集群的单点故障(单名称节点)。这样,集群就变得高可用性、一致性和分区容错性。
我说得对吗?还是我遗漏了什么?根据CAP的说法,如果系统试图提供所有三种功能,它应该在延迟方面付出代价,新功能是否会将此延迟添加到集群中?还是Hadoop破解了CAP定理?

HDFS在多个相关故障(例如,三个故障数据节点具有相同的HDFS块)的情况下不提供可用性

ZooKeeper之类的系统是显式顺序一致的,因为集群中的节点太少,写入仲裁的成本相对较小。Hadoop分布式文件系统(HDFS)也选择一致性——如果运气不好,三个失败的数据节点可能会导致文件块不可用。但是,这两个系统都设计为在实际网络中工作,在实际网络中会发生分区和故障,当它们这样做时,两个系统都将变得不可用,在一致性和可用性之间做出了选择。这种选择仍然是分布式数据存储不可避免的现实


HDFS高可用性使HDFS更可用,但不是完全可用。如果网络分区使客户端无法与任一NameNode通信,那么集群实际上不可用