Spring integration 如何在Spring云数据流中配置Kafka绑定死信队列

Spring integration 如何在Spring云数据流中配置Kafka绑定死信队列,spring-integration,spring-xd,spring-cloud-stream,spring-cloud-dataflow,Spring Integration,Spring Xd,Spring Cloud Stream,Spring Cloud Dataflow,在SpringCloudDataflow文档中,提到了“死信队列”,它可以用于消息处理中的异常。但我并没有在任何地方进一步发现这一点。 我正在尝试在处理管道中配置Kafka绑定死信队列 有人可以帮助我或指向文档来了解更多信息吗?Kafka consumer和支持的覆盖将被解释。您必须特别打开enableDlqboolean标志 在流定义中,在使用者应用程序级别,您可以选择配置DLQ,并在流部署时提供必要的属性 dataflow:>streamcreatefoo——定义“http | log” d

在SpringCloudDataflow文档中,提到了“死信队列”,它可以用于消息处理中的异常。但我并没有在任何地方进一步发现这一点。 我正在尝试在处理管道中配置Kafka绑定死信队列


有人可以帮助我或指向文档来了解更多信息吗?

Kafka consumer和支持的覆盖将被解释。您必须特别打开
enableDlq
boolean标志

在流定义中,在使用者应用程序级别,您可以选择配置DLQ,并在流部署时提供必要的属性

dataflow:>streamcreatefoo——定义“http | log”

dataflow:>stream deploy foo--properties“app.http.spring.cloud.stream.bindings.output.destination=test,app.log.spring.cloud.stream.kafka.bindings.test.consumer.enableDlq=true”


在这里,我们显式地将
channelName
重写为“test”,因此我们可以在使用者(
log
)应用程序中使用它并启用DLQ标志。

Kafka使用者和支持的重写将得到解释。您必须特别打开
enableDlq
boolean标志

在流定义中,在使用者应用程序级别,您可以选择配置DLQ,并在流部署时提供必要的属性

dataflow:>streamcreatefoo——定义“http | log”

dataflow:>stream deploy foo--properties“app.http.spring.cloud.stream.bindings.output.destination=test,app.log.spring.cloud.stream.kafka.bindings.test.consumer.enableDlq=true”


在这里,我们显式地将
channelName
重写为“test”,这样我们就可以在使用者(
log
)应用程序中使用它并启用DLQ标志。

感谢Shabby,这很有帮助。Shabby,我正试图验证您的另一个想法-我计划为4-5步数据流管道配置单个DLQ,即
http |处理器一|处理器二|处理器三|日志
。我只是想知道,在将异常消息推送到dlq中时,是否可以将一些头信息或其他信息(如来自哪个处理器的消息)放到消息中。谢谢Shabby,这很有帮助。Shabby,我正试图验证您的另一个想法-我计划为4-5步数据流管道配置单个DLQ,即
http |处理器一|处理器二|处理器三|日志
。我只是想知道,在将异常消息推送到dlq中时,是否可以将一些头信息或其他信息(如来自哪个处理器的消息)放入消息中。