python - 使用 python 多处理将数据推送到 Kafka 队列

标签 python multithreading apache-kafka multiprocessing kafka-python

我正在使用 Python (2.7) 多重处理,使用 kafka-python (1.3.5) KafkaProducer 将数据推送到 Kafka 队列。

from kafka import KafkaProducer
import multiprocessing
# other imports


class TestClass(object):
    def __init__(self, producer):
        self.kafka_producer = producer

    def main(self, conf, nthreads):
        try:
            for i in range(nthreads):
                logger.info("Starting process number = %d " % (i + 1))
                p = Process(target=self.do_some_task, args=(conf, 2))
                p.start()
                processes.append(p)
            for p in processes:
                logger.info("Joining process")
            p.join()
        except Exception, ex:
            logger.error("Exception occurred : %s" % str(ex))

    def do_some_task(conf, retry):
        # some task happening
        self.record(arg1, arg2)

    # pushing to kafka
    def record(self, arg1, arg2)
        message = json.dumps({"a": "arg1", "b": "arg2"})
        self.kafka_producer.send(KAFKA_TOPIC, message)


if __name__ == '__main__':
    kafka_producer = KafkaProducer(
        bootstrap_servers=KAFKA_BOOTSTRAP_SERVERS, 
        request_timeout_ms=60000, 
        retries=2)
    obj = TestClass(kafka_producer)

    try:
        parser = argparse.ArgumentParser(description='Description')
        parser.add_argument('-threads', type=int, default=1) # 20 threads
        parser.add_argument('-debug', type=int, default=0)
        args = parser.parse_args()
        me = SingleInstance(args.src)
        TestClass.main(CONF[args.src], args.threads)

生成 20 个线程,其中写入 kafka。我查看了日志,发现该进程等待消息写入kafka,但最终它继续前进,而没有写入Kafka。没有提出任何异常(exception)。

我尝试在没有线程的情况下从 python 命令行运行相同的代码,一切都按预期工作。可能是什么问题。

最佳答案

请在 fork 进程后生成与 kafka 的连接。请关闭连接,并在遇到连接相关错误时重新连接。

关于python - 使用 python 多处理将数据推送到 Kafka 队列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47176083/

相关文章:

javascript - 类属性的简写

python - 查找所有单词: Negative Look Behind in Regex

python - fatal error C1083 : Cannot open include file: 'Carbon/Carbon.h' : No such file or directory

apache-kafka - Kafka Consumer 配置 - auto.offset.reset 如何控制消息消费

apache-kafka - 卡夫卡连接器中的动态主题

python - MySQL 选择 : Find all languages by Unicode

java - 线程安全 Hector 查询

java - ExecutorService - 如何以非阻塞方式等待所有任务完成

Java ExecutorService - 处于等待状态的线程

apache-kafka - 使用 Kafka Avro Console Consumer 时如何为特定的 Schema 注册表传递参数?