apache-kafka - 是否可以使用Kafka传输文件?

标签 apache-kafka kafka-consumer-api kafka-producer-api

我每天都会生成数千个文件,我想使用 Kafka 流式传输这些文件。
当我尝试读取文件时,每一行都被视为一条单独的消息。

我想知道如何将每个文件的内容作为 Kafka 主题中的单个消息,以及如何将 Kafka 主题中的每条消息写入单独的文件中。

最佳答案

您可以编写自己的序列化器/反序列化器来处理文件。
例如 :

制作人 Prop :

props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, org.apache.kafka.common.serialization.StringSerializer);  
props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, YOUR_FILE_SERIALIZER_URI);

消费 Prop :
props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, org.apache.kafka.common.serialization.StringDeserializer);
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, YOUR_FILE_DESERIALIZER_URI);

序列化器
public class FileMapSerializer implements Serializer<Map<?,?>> {

@Override
public void close() {

}

@Override
public void configure(Map configs, boolean isKey) {
}

@Override
public byte[] serialize(String topic, Map data) {
    ByteArrayOutputStream bos = new ByteArrayOutputStream();
    ObjectOutput out = null;
    byte[] bytes = null;
    try {
        out = new ObjectOutputStream(bos);
        out.writeObject(data);
        bytes = bos.toByteArray();
    } catch (IOException e) {
        e.printStackTrace();
    } finally {
        try {
            if (out != null) {
                out.close();
            }
        } catch (IOException ex) {
            // ignore close exception
        }
        try {
            bos.close();
        } catch (IOException ex) {
            // ignore close exception
        }
    }
    return bytes;
}
}

解串器
public class MapDeserializer implements Deserializer<Map> {

@Override
public void close() {

}

@Override
public void configure(Map config, boolean isKey) {

}

@Override
public Map deserialize(String topic, byte[] message) {
    ByteArrayInputStream bis = new ByteArrayInputStream(message);
    ObjectInput in = null;
    try {
        in = new ObjectInputStream(bis);
        Object o = in.readObject();
        if (o instanceof Map) {
            return (Map) o;
        } else
            return new HashMap<String, String>();
    } catch (ClassNotFoundException e) {
        e.printStackTrace();
    } catch (IOException e) {
        e.printStackTrace();
    } finally {
        try {
            bis.close();
        } catch (IOException ex) {
        }
        try {
            if (in != null) {
                in.close();
            }
        } catch (IOException ex) {
            // ignore close exception
        }
    }
    return new HashMap<String, String>();
}
}

按以下格式撰写消息
final Object kafkaMessage = new ProducerRecord<String, Map>((String) <TOPIC>,Integer.toString(messageId++), messageMap);

messageMap 将包含 fileName 作为键和文件内容作为值。
值可以是可序列化的对象。
因此,每条消息都将包含一个带有 File_Name 与 FileContent 映射的映射。可以是单值或多值。

关于apache-kafka - 是否可以使用Kafka传输文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39112201/

相关文章:

apache-kafka - 卡夫卡镜像制作器 : Sync __consumer_offsets topic duplicates

apache-kafka - 对于 AvroProducer 到 Kafka, "key"和 "value"的 avro 模式在哪里?

java - 性能问题: Latency Spike happens sometimes in Kafka Streams

go - 覆盖现有的 golang 结构并添加字段

java - 我们如何在 Kafka 发布/订阅中对消息进行版本控制?

apache-kafka - 在 KAFKA 中消费后删除消息

java - 在线程之间共享 Kafka 生产者

apache-kafka - WSO2 SP - 具有 JSON 属性的 Kafka 源

apache-kafka - kafka-consumer-groups.sh 何时将 CURRENT_OFFSET 显示为 "-"?

apache-kafka - Kafka 到 Google Cloud Platform 数据流提取