在开始使用 Spring Cloud Stream 之前,我使用的是 Spring-Kafka 及其对批量消费和自定义错误处理的支持。注意这段代码的最后两行:
ConcurrentKafkaListenerContainerFactory<String, byte[]> factory = new ConcurrentKafkaListenerContainerFactory<>();
factory.setConcurrency(this.consumerConfigurationProperties.getConsumer().get(TOPIC_AG_TASK_EMPP).getConcurrency());
factory.setConsumerFactory(consumerFactory);
factory.setMessageConverter(avroMessageConverter);
factory.getContainerProperties().setPollTimeout(this.consumerConfigurationProperties.getConsumer().get(TOPIC_AG_TASK_EMPP).getPollTimeout());
factory.getContainerProperties().setPauseEnabled(true);
factory.getContainerProperties().setAckMode(AbstractMessageListenerContainer.AckMode.BATCH);
factory.getContainerProperties().setErrorHandler(dlqAGTaskErrorHandler);
但是,使用 Spring Cloud Stream 我找不到如何配置它。我只能找到这些配置属性:
spring.cloud.stream.kafka.bindings.input.consumer.autoCommitOffset,enableDlq
因此,是否可以(是否)可以在 Spring Cloud Stream 中注册自定义错误处理程序并将 AckMode 设置为 BATCH?
谢谢你的支持。