Apache spark Kafka直接API批输入大小
根据Kafka Direct API,输入记录的数量计算如下Apache spark Kafka直接API批输入大小,apache-spark,spark-streaming,kafka-consumer-api,kafka-directconsumer,Apache Spark,Spark Streaming,Kafka Consumer Api,Kafka Directconsumer,根据Kafka Direct API,输入记录的数量计算如下 maxInputSize = maxRatePerPartition * #numOfPartitions# * #BATCH_DURATION_SECONDS# 我真的不明白为什么输入大小是这样确定的。假设我的作业在5分钟内处理100个文件 如果我设置maxRatePerPartition=1,主题中的numOfPartitions为6,那么批处理持续时间应该是多少,因为如果我将批处理持续时间秒设置为300,我将获取1800个文件
maxInputSize = maxRatePerPartition * #numOfPartitions# * #BATCH_DURATION_SECONDS#
我真的不明白为什么输入大小是这样确定的。假设我的作业在5分钟内处理100个文件
如果我设置maxRatePerPartition=1,主题中的numOfPartitions为6,那么批处理持续时间应该是多少,因为如果我将批处理持续时间秒设置为300,我将获取1800个文件作为输入,将有一长串的批处理等待处理,1800个文件将需要大约半小时来处理,内存问题和其他限制除外
我如何处理这个问题。我应该能够控制输入中的记录。我可以在5分钟内处理10条记录,我应该只能加载这些记录