Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/apache-kafka/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache kafka 卡夫卡消费者:如何提高日志级别?_Apache Kafka - Fatal编程技术网

Apache kafka 卡夫卡消费者:如何提高日志级别?

Apache kafka 卡夫卡消费者:如何提高日志级别?,apache-kafka,Apache Kafka,当我运行Java应用程序并实例化KafkanConsumer对象时(提供了所需的最小属性:键和值反序列化器和组id);我在StdOut上看到很多信息消息(如果我提供了不受支持的属性,我还会看到警告消息) 我想看看什么时候发生提取事件。我假设通过增加日志级别进行调试,我将能够看到这一点。不幸的是,我无法增加它 我尝试以多种方式向log4j.properties文件提供数据(将文件放置在特定路径,并将其作为参数(-Dlog4j.configuration)传递)。输出保持不变 cd/Users/us

当我运行Java应用程序并实例化KafkanConsumer对象时(提供了所需的最小属性:键和值反序列化器和组id);我在StdOut上看到很多信息消息(如果我提供了不受支持的属性,我还会看到警告消息)

我想看看什么时候发生提取事件。我假设通过增加日志级别进行调试,我将能够看到这一点。不幸的是,我无法增加它

我尝试以多种方式向log4j.properties文件提供数据(将文件放置在特定路径,并将其作为参数(-Dlog4j.configuration)传递)。输出保持不变

cd/Users/user/git/kafka/toys;JAVA_HOME=/Library/JAVA/JavaVirtualMachines/jdk1.8.0_191.jdk/Contents/HOME”/Applications/NetBeans/NetBeans/8.2.app/Contents/Resources/NetBeans/JAVA/maven/bin/mvn”“-Dexec.args=-classpath%classpath ch.demo.toys.CarthusianConsumer”-Dexec.executable=/Library/Java/JavaVirtualMachines/jdk1.8.0_191.jdk/Contents/Home/bin/Java-Dexec.classpathScope=runtime-DskipTests=true org.codehaus.mojo:execmaven插件:1.2.1:exec
运行NetBeans保存时编译执行。跳过阶段执行,将使用依赖项项目的输出目录(打开保存时编译),而不是它们的jar工件。
正在扫描项目。。。
------------------------------------------------------------------------
建筑玩具1.0-SNAPSHOT
------------------------------------------------------------------------
---execmaven插件:1.2.1:exec(默认cli)@toys---
2019年7月10日下午2:52:00 org.apache.kafka.common.config.AbstractConfig logAll
信息:消费者配置值:
allow.auto.create.topics=true
auto.commit.interval.ms=5000
auto.offset.reset=最早
bootstrap.servers=[卡夫卡服务器:9090,卡夫卡服务器:9091,卡夫卡服务器:9092]
check.crcs=true
client.dns.lookup=默认值
client.id=
client.rack=
connections.max.idle.ms=540000
default.api.timeout.ms=60000
enable.auto.commit=true
exclude.internal.topics=true
fetch.max.bytes=52428800
fetch.max.wait.ms=500
fetch.min.bytes=1
group.id=carthusian消费者
group.instance.id=null
heartbeat.interval.ms=3000
interceptor.classes=[]
internal.leave.group.on.close=true
isolation.level=读取\未提交
key.deserializer=class org.apache.kafka.common.serialization.IntegerDeserializer
max.partition.fetch.bytes=1048576
最大轮询间隔时间=300000毫秒
最大轮询记录数=100000
metadata.max.age.ms=300000
metric.reporters=[]
metrics.num.samples=2
metrics.recording.level=调试
metrics.sample.window.ms=30000
partition.assignment.strategy=[class org.apache.kafka.clients.consumer.RangeAssignor]
receive.buffer.bytes=65536
重新连接.backoff.max.ms=1000
重新连接.backoff.ms=50
request.timeout.ms=30000
retry.backoff.ms=100
sasl.client.callback.handler.class=null
sasl.jaas.config=null
sasl.kerberos.kinit.cmd=/usr/bin/kinit
sasl.kerberos.min.time.before.relogin=60000
sasl.kerberos.service.name=null
sasl.kerberos.ticket.renew.jitter=0.05
sasl.kerberos.ticket.renew.window.factor=0.8
sasl.login.callback.handler.class=null
sasl.login.class=null
sasl.login.refresh.buffer.seconds=300
sasl.login.refresh.min.period.seconds=60
sasl.login.refresh.window.factor=0.8
sasl.login.refresh.window.jitter=0.05
sasl.mechanism=GSSAPI
security.protocol=明文
send.buffer.bytes=131072
session.timeout.ms=10000
ssl.cipher.suites=null
ssl.enabled.protocols=[TLSv1.2、TLSv1.1、TLSv1]
ssl.endpoint.identification.algorithm=https
ssl.key.password=null
ssl.keymanager.algorithm=SunX509
ssl.keystore.location=null
ssl.keystore.password=null
ssl.keystore.type=JKS
ssl.protocol=TLS
ssl.provider=null
ssl.secure.random.implementation=null
ssl.trustmanager.algorithm=PKIX
ssl.truststore.location=null
ssl.truststore.password=null
ssl.truststore.type=JKS
value.deserializer=class org.apache.kafka.common.serialization.StringDeserializer
2019年7月10日下午2:52:01 org.apache.kafka.common.utils.AppInfoParser$AppInfo
信息:卡夫卡版本:2.3.0
2019年7月10日下午2:52:01 org.apache.kafka.common.utils.AppInfoParser$AppInfo
信息:卡夫卡委员会:fc1aaa116b661c8a
2019年7月10日下午2:52:01 org.apache.kafka.common.utils.AppInfoParser$AppInfo
信息:卡夫卡Starttimes:1562763121219
2019年7月10日下午2:52:01 org.apache.kafka.clients.consumer.KafkaConsumer订阅
信息:[消费者客户ID=Consumer-1,groupId=carthusian消费者]订阅主题:序列
2019年7月10日下午2:52:01 org.apache.kafka.clients.Metadata更新
信息:[Consumer clientId=Consumer-1,groupId=carthusian Consumer]群集ID:REEXP5FYSKGPHLRYFTALLQ
2019年7月10日下午2:52:01 org.apache.kafka.clients.consumer.internal.AbstractCoordinator$FindCoordinatorResponseHandler onSuccess
信息:[Consumer clientId=Consumer-1,groupId=carthusian Consumer]发现的组协调器kafka tds:9091(id:2147483646 rack:null)
2019年7月10日下午2:52:01 org.apache.kafka.clients.consumer.internals.ConsumerCoordinator onJoinPrepare
信息:[Consumer clientId=Consumer-1,groupId=carthusian Consumer]正在撤消以前分配的分区[]
撤销事件:[]
2019年7月10日下午2:52:01 org.apache.kafka.clients.consumer.internals.AbstractCoordinator sendJoinGroupRequest
信息:[消费者客户ID=Consumer-1,组ID=carthusian消费者](重新)加入组
2019年7月10日下午2:52:01 org.apache.kafka.clients.consumer.internals.AbstractCoordinator sendJoinGroupRequest
信息:[消费者客户ID=Consumer-1,组ID=carthusian消费者](重新)加入组
2019年7月10日下午2:52:01 org.apache.kafka.clients.consumer.internal.AbstractCoordinator$1 onSuccess
信息:[消费者客户ID=Consumer-1,组ID=carth
# Root logger option
log4j.rootLogger=DEBUG, stdout

# Direct log messages to stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.Target=System.out
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %c{1} - %m%n