docker - Kafka 中的数据如何能够在容器回收后幸存下来?

标签 docker apache-kafka docker-compose apache-kafka-streams

首先,我不知道这个问题是 Kafka 还是 Docker 的问题……我对这两个主题都是新手。但我认为这更多是一个 Docker 问题,而不是 Kafka 问题(事实上,这将是我没有真正理解其中一个或另一个的问题……)。

我在 Raspberry 4 上安装了 Docker,并为 Kafka 和 Zookeeper 创建了 Docker 镜像;我必须自己创建它们,因为任何现有镜像都不支持 64 位 Raspi(至少我找不到任何人)。但我让他们工作了。

接下来,我从 Kafka 文档中实现了 Kafka Streams 示例(Wordcount);它运行良好,计算您插入其中的所有文本中的单词,并保留所有先前运行的数字。这在某种程度上是预料之中的;至少该文档中是这样描述的。

因此,经过一些测试运行后,我想重置整个系统。

我认为最简单的方法是关闭 docker 容器,删除主机上已安装的文件夹并重新开始。

但这不起作用:单词计数器仍然在那里!这意味着字数统计不是从 0 开始...

好的,下一步:不仅要删除容器,还要重建镜像!当然,Zookeeper 和 Kafka 都是!

没有区别!保留之前所有运行的字数统计。

使用docker system prune --volumes也没有什么区别......

根据我对 Docker 的有限了解,我假设任何运行时数据都存储在容器中或安装的文件夹(卷)中。因此,当我删除容器以及 Docker 主机上由容器挂载的文件夹时,我希望任何状态都会消失。

显然不是……所以我在这里错过了一些重要的东西,最有可能是 Docker。

我使用的 docker-compose 文件:

version: '3'

services:
  zookeeper:
    image: tquadrat/zookeeper:latest
    ports:
      - "2181:2181"
      - "2888:2888"
      - "3888:3888"
      - "8080:8080"
    volumes:
      - /data/zookeeper/config:/config
      - /data/zookeeper/data:/data
      - /data/zookeeper/datalog:/datalog
      - /data/zookeeper/logs:/logs
    environment:
      ZOO_SERVERS: "server.1=zookeeper:2888:3888;2181"
    restart: always

  kafka:
    image: tquadrat/kafka:latest
    depends_on:
      - zookeeper
    ports:
      - "9091:9091"
    volumes:
      - /data/kafka/config:/config
      - /data/kafka/logs:/logs
    environment:
      KAFKA_LISTENERS: "INTERNAL://kafka:29091,EXTERNAL://:9091"
      KAFKA_ADVERTISED_LISTENERS: "INTERNAL://kafka:29091,EXTERNAL://TCON-PI4003:9091"
      KAFKA_LISTENER_SECURITY_PROTOCOL_MAP: "INTERNAL:PLAINTEXT,EXTERNAL:PLAINTEXT"
      KAFKA_INTER_BROKER_LISTENER_NAME: "INTERNAL"
      KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
      KAFKA_DELETE_TOPIC_ENABLE: "true"
    restart: always

我用来清除已安装文件夹的脚本文件:

#!/bin/sh

set -eux

DATA="/data"
KAFKA_DATA="$DATA/kafka"
ZOOKEEPER_DATA="$DATA/zookeeper"

sudo rm -R "$KAFKA_DATA"
sudo rm -R "$ZOOKEEPER_DATA"

mkdir -p "$KAFKA_DATA/config" "$KAFKA_DATA/logs"
mkdir -p "$ZOOKEEPER_DATA/config" "$ZOOKEEPER_DATA/data" "$ZOOKEEPER_DATA/datalog" "$ZOOKEEPER_DATA/logs"

有什么想法吗?

最佳答案

Kafka Streams 将其自己的状态存储在其运行的主机上的“state.dir”配置下。在 Apache Kafka 库中,它位于 /tmp 下。首先检查您是否在代码中覆盖了该属性。

就 Docker 而言,首先尝试不使用卷。

Using docker system prune --volumes made no difference also …

这将清理在 Compose 中使用 docker volume createvolumes: 创建的未附加卷,而不是主机安装的目录。

关于docker - Kafka 中的数据如何能够在容器回收后幸存下来?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60497949/

相关文章:

docker - 如何升级Elasticbeanstalk Docker版本

docker - 我可以用来构建 Dockerfile 的最轻量级的基础镜像是什么?

java - Eclipse scala.object 无法解析

scala - 如何在 Scala 中使用 Flink 的 KafkaSource?

docker - Docker CentOS-添加EPEL

docker - 为什么我有这么多REPOSITORY name = <none>的Docker镜像?

java - Kafka 日志清理器崩溃

docker - 如何使用 golang 在不同容器中使用 docker-compose env 文件变量?

Docker Compose 和 rabbitmq docker 镜像插件

php - Docker php无法构建:错误:版本^ 0.3的hirak/prestissimo软件包对PHP的要求与您的PHP版本不兼容