Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/apache-kafka/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java 卡夫卡消费者没有回应_Java_Apache Kafka - Fatal编程技术网

Java 卡夫卡消费者没有回应

Java 卡夫卡消费者没有回应,java,apache-kafka,Java,Apache Kafka,我是卡夫卡世界的新手, 我正在尝试使用生产者和消费者的现有示例创建简单的JavaKafka应用程序 制作人给出了结果: Sent:Message 0 Sent:Message 1 Sent:Message 2 Sent:Message 3 ............. 但在使用者端,代码正确执行,没有错误,但控制台上没有显示结果 制作人: 公共类产品测试{ 公共静态void main(字符串[]args){ Properties props=新属性(); 道具放置(“bootstrap.ser

我是卡夫卡世界的新手, 我正在尝试使用生产者和消费者的现有示例创建简单的JavaKafka应用程序

制作人给出了结果:

Sent:Message 0
Sent:Message 1
Sent:Message 2
Sent:Message 3
.............
但在使用者端,代码正确执行,没有错误,但控制台上没有显示结果

制作人:
公共类产品测试{
公共静态void main(字符串[]args){
Properties props=新属性();
道具放置(“bootstrap.servers”,“192.168.33.10:9092”);
道具放置(“阿克斯”、“全部”);
道具放置(“重试”,0);
道具放置(“批量大小”,16384);
道具放置(“玲儿小姐”,1);
props.put(“buffer.memory”,33554432);
put(“key.serializer”、“org.apache.kafka.common.serialization.StringSerializer”);
put(“value.serializer”、“org.apache.kafka.common.serialization.StringSerializer”);
Producer=null;
试一试{
制作人=新卡夫卡制作人(道具);
对于(int i=0;i<100;i++){
字符串msg=“Message”+i;
producer.send(新ProducerRecord(“HelloKafkaTopic”,msg));
System.out.println(“发送:+msg”);
}
}捕获(例外e){
e、 printStackTrace();
}最后{
producer.close();
}
}
}
消费者:
公共类ConsumerTest{
公共静态void main(字符串[]args){
Properties props=新属性();
道具放置(“bootstrap.servers”,“192.168.33.10:9092”);
道具出售(“group.id”、“group-1”);
props.put(“enable.auto.commit”、“true”);
props.put(“auto.commit.interval.ms”,“1000”);
道具放置(“自动偏移重置”、“最小”);
props.put(“session.timeout.ms”,“30000”);
put(“key.deserializer”、“org.apache.kafka.common.serialization.StringDeserializer”);
put(“value.deserializer”、“org.apache.kafka.common.serialization.StringDeserializer”);
卡夫卡消费者卡夫卡消费者=新卡夫卡消费者(道具);
订阅(Arrays.asList(“HelloKafkaTopic”);
while(true){
消费者记录记录=kafkaConsumer.poll(100);
对于(消费者记录:记录){
System.out.println(“分区:”+record.Partition()+“偏移量:”+record.Offset()
+“值:”+record.Value()+“ThreadID:”+Thread.currentThread().getId());
}
}
}  }
如有任何建议,请提前感谢

一些建议:
1.使用
--从头开始运行
kafka console consumer
脚本,验证是否可以看到生成的消息。
2.更改
道具放置(“自动偏移、重置”、“最小”)
道具放置(“自动偏移、重置”、“最早”)
3.调用poll时不要使用如此小的超时。相反,使用相对较大的超时,例如3000。即使使用Integer.MAX_值也是合理的

public class ProducerTest {
public static void main(String[] args) {
Properties props = new Properties();
props.put("bootstrap.servers", "192.168.33.10:9092");
props.put("acks", "all");
props.put("retries", 0);
props.put("batch.size", 16384);
props.put("linger.ms", 1);
props.put("buffer.memory", 33554432);
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
Producer<String, String> producer = null;
try {
  producer = new KafkaProducer<>(props);
  for (int i = 0; i < 100; i++) {
    String msg = "Message " + i;
    producer.send(new ProducerRecord<String, String>("HelloKafkaTopic", msg));
    System.out.println("Sent:" + msg);
  }
} catch (Exception e) {
  e.printStackTrace();

} finally {
  producer.close();
}

}

}
 public class ConsumerTest {

public static void main(String[] args) {
Properties props = new Properties();
props.put("bootstrap.servers", "192.168.33.10:9092");
props.put("group.id", "group-1");
props.put("enable.auto.commit", "true");
props.put("auto.commit.interval.ms", "1000");
props.put("auto.offset.reset", "smallest");
props.put("session.timeout.ms", "30000");
props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<>(props);
kafkaConsumer.subscribe(Arrays.asList("HelloKafkaTopic"));
while (true) {
  ConsumerRecords<String, String> records = kafkaConsumer.poll(100);
  for (ConsumerRecord<String, String> record : records) {
    System.out.println("Partition: " + record.partition() + " Offset: " + record.offset()
        + " Value: " + record.value() + " ThreadID: " + Thread.currentThread().getId());
  }
}

 }  }