Apache kafka 合流控制中心磁盘空间要求-为什么这么大?
需要500GB磁盘空间的状态。CCC似乎在卡夫卡本身存储了一些数据,所以有人能告诉我这个存储实际需要什么吗?i、 e.是什么阻止CCC在Kubernetes中部署为容器,而不使用持久卷存储?是的,控制中心在Kafka中维护一些用于滚动聚合的数据,但它使用Kafka Streams来实现这一点,Kafka Streams配置了RocksDB数据库,并可以将这些信息存储在磁盘上 不过,最新的文档显示小于500GB 控制中心依赖于RocksDB的本地州。我们建议至少有300 GB的存储空间 如果您使用过Control Center,您就会知道您可以访问数月的卡夫卡历史指标 如果看看大多数公司的平均Oracle或SQL Server数据库,300 GB实际上并没有那么多 是什么阻止CCC在Kubernetes中作为容器部署而不使用持久卷存储 除了能够保留历史数据,并且在pod重启和获取数据时有一个缓慢的启动周期之外,可能不会太多Apache kafka 合流控制中心磁盘空间要求-为什么这么大?,apache-kafka,confluent-platform,control-center,Apache Kafka,Confluent Platform,Control Center,需要500GB磁盘空间的状态。CCC似乎在卡夫卡本身存储了一些数据,所以有人能告诉我这个存储实际需要什么吗?i、 e.是什么阻止CCC在Kubernetes中部署为容器,而不使用持久卷存储?是的,控制中心在Kafka中维护一些用于滚动聚合的数据,但它使用Kafka Streams来实现这一点,Kafka Streams配置了RocksDB数据库,并可以将这些信息存储在磁盘上 不过,最新的文档显示小于500GB 控制中心依赖于RocksDB的本地州。我们建议至少有300 GB的存储空间 如果您使用
然而,8个核和32GB的RAM到一个容器,可能构成一个沉重的吊舱 是的,Control Center在Kafka中为滚动聚合维护一些数据,但它使用Kafka Streams来实现这一点,Kafka Streams配置了RocksDB数据库,并可以将这些信息存储在磁盘上 不过,最新的文档显示小于500GB 控制中心依赖于RocksDB的本地州。我们建议至少有300 GB的存储空间 如果您使用过Control Center,您就会知道您可以访问数月的卡夫卡历史指标 如果看看大多数公司的平均Oracle或SQL Server数据库,300 GB实际上并没有那么多 是什么阻止CCC在Kubernetes中作为容器部署而不使用持久卷存储 除了能够保留历史数据,并且在pod重启和获取数据时有一个缓慢的启动周期之外,可能不会太多 然而,8个核和32GB的RAM到一个容器,可能构成一个沉重的吊舱