apache-kafka - max.request.size 和 message.max.bytes 的默认值似乎有误

标签 apache-kafka kafka-producer-api

Producer 设置 max.request.size 的默认值为 1048576。它控制请求(到代理)的最大字节数。

Broker 设置 message.max.bytes 的默认值为 1000012。这控制了(Kafka 服务器/代理)允许的最大(记录批处理)大小。

1048576 > 1000012

似乎默认情况下,生产者(具有此默认值)可能会碰巧产生大于代理(具有此默认值)将接受的消息,从而导致 MESSAGE_TOO_LARGE错误。

我是否误解了这些配置设置?还是 Kafka 的默认值真的会导致 MESSAGE_TOO_LARGE 默认值错误?

最佳答案

关于apache-kafka - max.request.size 和 message.max.bytes 的默认值似乎有误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60458132/

相关文章:

apache-kafka - 卡夫卡领导人选举何时举行?

apache-kafka - 是否可以使用Kafka传输文件?

apache-kafka - 如何确定Kafka的API版本?

apache-kafka - 使用 Kafka 的日志压缩,如果消费者没有落后于某个定义的时间限制,我该怎么做才能保证消费者不会错过消息?

python - KafkaTimeoutError : Failed to update metadata after 60. 0 秒

java - Kafka 每个消费者主题配置

mysql - 无法使用 Confluent REST API 运行 JDBC 源连接器

java - 有时,确实会创建唯一 id 的消费者组,并且消费者会在没有分区的情况下卡住

apache-kafka - Kafka 控制台生产者无法连接到代理

apache-kafka - 卡夫卡流: Exactly-once semantics for messages generated in a punctuator function