Scala 找不到记录器(org.apache.kafka.clients.consumer.ConsumerConfig)的附加程序

Scala 找不到记录器(org.apache.kafka.clients.consumer.ConsumerConfig)的附加程序,scala,log4j,apache-kafka,apache-flink,Scala,Log4j,Apache Kafka,Apache Flink,我试图通过在Scala中创建一个Kafka使用者来将ApacheKafka连接到ApacheFlink。这是我的消费代码: val properties = new Properties() properties.setProperty("bootstrap.servers", "localhost:9092") properties.setProperty("zookeeper.connect", "localhost:2181") properties.setProperty("group.

我试图通过在Scala中创建一个Kafka使用者来将ApacheKafka连接到ApacheFlink。这是我的消费代码:

val properties = new Properties()
properties.setProperty("bootstrap.servers", "localhost:9092")
properties.setProperty("zookeeper.connect", "localhost:2181")
properties.setProperty("group.id", "test")

val env = StreamExecutionEnvironment.getExecutionEnvironment
val stream = env
            .addSource(new FlinkKafkaConsumer09[String]("test", new  SimpleStringSchema(), properties))
            .print
env.enableCheckpointing(5000)
当我运行这个程序时,我从log4j得到一些警告,程序终止,没有显示输出。我的卡夫卡制作人已经开拍了

log4j:WARN No appenders could be found for logger (org.apache.kafka.clients.consumer.ConsumerConfig).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.

我不认为log4j警告是程序终止的原因。 当log4j在类路径中不可用时,通常会出现这些问题


没有生成输出的原因是缺少
env.execute()
调用,因此作业从未启动。

您是从IDE还是在外部Flink安装上运行此操作。如果是外部安装,您是否检查了作业管理器和任务管理器的日志文件?Flink stream程序打印到任务管理器的
/log/*out
文件。@FabianHueske未创建任何日志文件。我在Eclipse上运行这个。成功了!你能告诉我如何在类路径中添加log4j吗?我的回答实际上是不准确的:log4j的问题是在类路径中很可能没有配置文件。要解决这个问题,请添加一个resources文件夹,并将
log4j.properties
文件放入它们的文件夹中(确保IDE正确识别该文件夹并将该文件添加到类路径)。您可以将此文件用作参考: