Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/webpack/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache kafka 合流控制中心磁盘空间要求-为什么这么大?_Apache Kafka_Confluent Platform_Control Center - Fatal编程技术网

Apache kafka 合流控制中心磁盘空间要求-为什么这么大?

Apache kafka 合流控制中心磁盘空间要求-为什么这么大?,apache-kafka,confluent-platform,control-center,Apache Kafka,Confluent Platform,Control Center,需要500GB磁盘空间的状态。CCC似乎在卡夫卡本身存储了一些数据,所以有人能告诉我这个存储实际需要什么吗?i、 e.是什么阻止CCC在Kubernetes中部署为容器,而不使用持久卷存储?是的,控制中心在Kafka中维护一些用于滚动聚合的数据,但它使用Kafka Streams来实现这一点,Kafka Streams配置了RocksDB数据库,并可以将这些信息存储在磁盘上 不过,最新的文档显示小于500GB 控制中心依赖于RocksDB的本地州。我们建议至少有300 GB的存储空间 如果您使用

需要500GB磁盘空间的状态。CCC似乎在卡夫卡本身存储了一些数据,所以有人能告诉我这个存储实际需要什么吗?i、 e.是什么阻止CCC在Kubernetes中部署为容器,而不使用持久卷存储?

是的,控制中心在Kafka中维护一些用于滚动聚合的数据,但它使用Kafka Streams来实现这一点,Kafka Streams配置了RocksDB数据库,并可以将这些信息存储在磁盘上

不过,最新的文档显示小于500GB

控制中心依赖于RocksDB的本地州。我们建议至少有300 GB的存储空间

如果您使用过Control Center,您就会知道您可以访问数月的卡夫卡历史指标

如果看看大多数公司的平均Oracle或SQL Server数据库,300 GB实际上并没有那么多

是什么阻止CCC在Kubernetes中作为容器部署而不使用持久卷存储

除了能够保留历史数据,并且在pod重启和获取数据时有一个缓慢的启动周期之外,可能不会太多


然而,8个核和32GB的RAM到一个容器,可能构成一个沉重的吊舱

是的,Control Center在Kafka中为滚动聚合维护一些数据,但它使用Kafka Streams来实现这一点,Kafka Streams配置了RocksDB数据库,并可以将这些信息存储在磁盘上

不过,最新的文档显示小于500GB

控制中心依赖于RocksDB的本地州。我们建议至少有300 GB的存储空间

如果您使用过Control Center,您就会知道您可以访问数月的卡夫卡历史指标

如果看看大多数公司的平均Oracle或SQL Server数据库,300 GB实际上并没有那么多

是什么阻止CCC在Kubernetes中作为容器部署而不使用持久卷存储

除了能够保留历史数据,并且在pod重启和获取数据时有一个缓慢的启动周期之外,可能不会太多

然而,8个核和32GB的RAM到一个容器,可能构成一个沉重的吊舱