apache-flink - 如何在 flink 上使用 Ratelimiter?

标签 apache-flink

我想在我的 Flink 工作中限制 Kafka 消费者。
查看 Flink 1.12 的源代码,我发现 FlinkConnectorRateLimiterGuavaFlinkConnectorRateLimiter .但是我找不到任何将这个速率限制器连接到 FlinkKafkaConsumer 的东西.
如何在 Flink 1.12 中实现 Kafka 的速率限制?

最佳答案

FlinkConnectorRateLimiter可用于旧版 Kafka 消费者 (flink-connector-kafka-0.10),后者在 Flink 1.12 中被删除。当前的 kafka 消费者不提供速率限制。
请参阅此邮件列表线程 -- http://apache-flink-user-mailing-list-archive.2336050.n4.nabble.com/Kafka-Rate-Limit-in-FlinkConsumer-td36417.html - 一些讨论。简而言之,一旦对背压和事件时间偏差下的检查点进行的改进完成后,速率限制应该不再具有任何吸引力,因此实际上没有任何兴趣增加对速率限制的支持。
但是,上面的邮件列表线程确实包含一个示例,展示了如何通过扩展 FlinkKafkaConsumer 自己为 Kafka 实现速率限制。覆盖 emitRecordemitRecordWithTimestamp .

关于apache-flink - 如何在 flink 上使用 Ratelimiter?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/65227642/

相关文章:

apache-flink - Flink 获取 KeyedState 状态值并在另一个流中使用

hadoop - Apache Flink - 跟踪最大值

rabbitmq - 无法在 Flink 1.3.2 中启动 RabbitMQ 源

apache-flink - 无法使用 Flink Streaming 进行流式传输

stream - 如何在 Flink 中使用 ListState 进行 BroadcastProcessFunction

amazon-s3 - Flink Streaming AWS S3 并行读取多个文件

apache-spark - 如何测量Apache Spark和Flink的能耗

java - 在 Apache Flink 中按元组字段中的 max 进行过滤

apache-flink - Flink 检查点不断失败

java - Apache 弗林克 : can't use writeAsCsv() with a datastream of subclass tuple