Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/apache-kafka/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache kafka 卡夫卡-每小时发布80亿条消息_Apache Kafka - Fatal编程技术网

Apache kafka 卡夫卡-每小时发布80亿条消息

Apache kafka 卡夫卡-每小时发布80亿条消息,apache-kafka,Apache Kafka,我需要将大型机上的服务迁移到Kafka。服务器托管在amazon(AWS)上 我需要担心什么吗?服务器不能支持它吗 这将是一笔信用卡交易。这是一些餐巾纸的背面: 每小时80亿条信息等于每秒约20万条(800000000/60/60) 如果假定消息大小为1KB,则为每秒约2GB 显示Kafka可扩展到2.7GB/s的入口-因此,是的,Kafka可以支持它。您只需要相应地扩展和配置代理 这是餐巾纸的背面: 每小时80亿条信息等于每秒约20万条(800000000/60/60) 如果假定消息大小

我需要将大型机上的服务迁移到Kafka。服务器托管在amazon(AWS)上

我需要担心什么吗?服务器不能支持它吗


这将是一笔信用卡交易。

这是一些餐巾纸的背面:

  • 每小时80亿条信息等于每秒约20万条(800000000/60/60)

  • 如果假定消息大小为1KB,则为每秒约2GB


显示Kafka可扩展到2.7GB/s的入口-因此,是的,Kafka可以支持它。您只需要相应地扩展和配置代理

这是餐巾纸的背面:

  • 每小时80亿条信息等于每秒约20万条(800000000/60/60)

  • 如果假定消息大小为1KB,则为每秒约2GB


显示Kafka可扩展到2.7GB/s的入口-因此,是的,Kafka可以支持它。您只需要相应地扩展和配置代理

每条信息有多大?这段时间的分布是否均匀?您是在寻找Kafka群集大小调整需求,还是在尝试确定您现有的群集是否可以处理它?我还不知道。。。这是项目的开始,我没有这些数字。我现在想知道这是否可行。每条消息有多大?这段时间的分布是否均匀?您是在寻找Kafka群集大小调整需求,还是在尝试确定您现有的群集是否可以处理它?我还不知道。。。这是项目的开始,我没有这些数字。我现在想知道这是否可行。