Hadoop 卡夫卡存储器要求

Hadoop 卡夫卡存储器要求,hadoop,memory,apache-kafka,diskspace,throughput,Hadoop,Memory,Apache Kafka,Diskspace,Throughput,我是卡夫卡的初学者 我们正在寻找调整kafka群集(一个5节点群集)的大小,以每秒处理17000个事件,每个事件的大小为600字节。 我们计划复制3项活动,并将活动保留一周 我在卡夫卡文档页面上读到 assuming you want to be able to buffer for 30 seconds and compute your memory need as write_throughput*30. 那么这篇文章到底是怎么写的呢?如果它是每秒的MB数-我看是9960MB/秒

我是卡夫卡的初学者

我们正在寻找调整kafka群集(一个5节点群集)的大小,以每秒处理17000个事件,每个事件的大小为600字节。 我们计划复制3项活动,并将活动保留一周

我在卡夫卡文档页面上读到

    assuming you want to be able to buffer for 30 seconds and 
compute your memory need as write_throughput*30.
那么这篇文章到底是怎么写的呢?如果它是每秒的MB数-我看是9960MB/秒

if consider that as my write throughput then the memory calculates as 292GB(9960MB/Sec * 30 )
那么,一个节点或整个集群(5个节点)的292GB内存需求是多少

我真的很想了解一下内存和磁盘的大小

问候
VB

如果您的消息大小为600字节,消息速率为17k msg/s,那么您的吞吐量将为~10MB/s[17000*600/(1024*1024)]。如果要对主题进行分区并使用5个代理,每个代理有3个10/5*3=6MB/s的副本,则需要进行缓冲,这在任何普通硬件上都不会有问题。缓冲30秒意味着180MB的内存


如果您的意思是消息大小为600kB,那么您需要考虑添加大量非常快速的存储以达到6GB/s,实际上最好增加集群的节点数。

30s设置在配置文件中?或者它是一个默认值?