apache-spark - Spark Streaming中如何将压缩数据写入Kafka?

标签 apache-spark apache-kafka spark-streaming

是否可以将 gzip 压缩数据从 Spark 流写入 Kafka?是否有任何示例/样本展示如何在 Spark 流作业中从 Kafka 写入和读取压缩数据?

最佳答案

是的,这是可能的。只需将 compression.type 设置为 gzip

参见here完整的例子。

// Zookeeper connection properties
val props = new HashMap[String, Object]()
props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, brokers)
props.put(ProducerConfig.COMPRESSION_TYPE_CONFIG, "gzip")
// add other props as needed

val producer = new KafkaProducer[String, String](props)

关于apache-spark - Spark Streaming中如何将压缩数据写入Kafka?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43465269/

相关文章:

scala - 如何在 Apache Spark scala 中读取 PDF 文件和 xml 文件?

elasticsearch - 为了将日志数据获取到我的业务逻辑(在 Spark 中定义),在 Logstash 和 Spark Streaming 之间使用 Apache Kafka 是否正确?

python-3.x - 在pyspark中添加UUID的有效方法

apache-kafka - 在Kafka中获取特定主题的消费者列表的命令是什么

scala - Spark Streaming窗口输出

hadoop - 启动 Apache Spark 集群

apache-kafka - 如何检查 Kafka 使用了多少磁盘空间

apache-spark - Spark RDD 是否会出现无法满足不变性的情况?

apache-spark - Spark Streaming 中的数据接收

java - 卡夫卡 Protocol Buffer : C++ serialization to java