python - 如何杀死多处理模块创建的僵尸进程?

标签 python linux multithreading

我对 multiprocessing 模块很陌生。我只是尝试创建以下内容:我有一个工作是从 RabbitMQ 获取消息并将其传递给内部队列 (multiprocessing.Queue)。然后我想做的是:当新消息进来时产生一个进程。它可以工作,但是在工作完成后它会留下一个僵尸进程,它没有被它的父进程终止。这是我的代码:

主进程:

 #!/usr/bin/env python

 import multiprocessing
 import logging
 import consumer
 import producer
 import worker
 import time
 import base

 conf = base.get_settings()
 logger = base.logger(identity='launcher')

 request_order_q = multiprocessing.Queue()
 result_order_q = multiprocessing.Queue()

 request_status_q = multiprocessing.Queue()
 result_status_q = multiprocessing.Queue()

 CONSUMER_KEYS = [{'queue':'product.order',
                   'routing_key':'product.order',
                   'internal_q':request_order_q}]
 #                 {'queue':'product.status',
 #                  'routing_key':'product.status',
 #                  'internal_q':request_status_q}]

 def main():
     # Launch consumers
     for key in CONSUMER_KEYS:
         cons = consumer.RabbitConsumer(rabbit_q=key['queue'],
                                        routing_key=key['routing_key'],
                                        internal_q=key['internal_q'])
         cons.start()

     # Check reques_order_q if not empty spaw a process and process message
     while True:
         time.sleep(0.5)
         if not request_order_q.empty():
             handler = worker.Worker(request_order_q.get())
             logger.info('Launching Worker')
             handler.start()

 if __name__ == "__main__":
     main()

这是我的 worker :

 import multiprocessing
 import sys 
 import time
 import base

 conf = base.get_settings()
 logger = base.logger(identity='worker')

 class Worker(multiprocessing.Process):

     def __init__(self, msg):
         super(Worker, self).__init__()
         self.msg = msg 
         self.daemon = True

     def run(self):
         logger.info('%s' % self.msg)
         time.sleep(10)
         sys.exit(1)

所以在处理完所有消息后,我可以使用 ps aux 命令查看进程。但我真的希望他们一旦完成就被终止。 谢谢。

最佳答案

使用 multiprocessing.active_children 优于 Process.joinactive_children 函数清除自上次调用 active_children 后创建的所有僵尸。 join 方法等待选定的进程。在此期间,其他进程可以终止并成为僵尸,但父进程不会注意到,直到加入等待的方法。要查看实际情况:

import multiprocessing as mp
import time


def main():
    n = 3
    c = list()
    for i in range(n):
        d = dict(i=i)
        p = mp.Process(target=count, kwargs=d)
        p.start()
        c.append(p)
    for p in reversed(c):
        p.join()
        print('joined')


def count(i):
    print(f'{i} going to sleep')
    time.sleep(i * 10)
    print(f'{i} woke up')


if __name__ == '__main__':
    main()

以上将创建 3 个进程,每个进程终止 10 秒。由于代码是,最后一个进程首先加入,所以其他两个较早终止的进程将成为僵尸 20 秒。您可以通过以下方式查看它们:

ps aux | grep Z

如果进程按照它们将终止的顺序等待,则不会有僵尸。删除对函数 reversed 的调用以查看这种情况。然而,在实际应用中,我们很少知道 child 会终止的顺序,所以使用方法 multiprocessing.Process.join 会导致一些僵尸。

替代的active_children 不会留下任何僵尸。 在上面的示例中,将循环 for p in reversed(c): 替换为:

while True:
    time.sleep(1)
    if not mp.active_children():
        break

看看会发生什么。

关于python - 如何杀死多处理模块创建的僵尸进程?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19322129/

相关文章:

linux - 使用 ssh 比较目录

multithreading - 多代理系统和分布式计算有什么区别

c - FreeBSD:如何通过PID检查进程中有多少个线程正在运行?

Java:如何等待fileChanged执行?

python - 赋值文本冒险之前引用的局部变量 'location'

python - 将 Netcat 流写入带有附加文本的文件

linux - 我如何将半命令分配给bash中的变量

python - Docker compose 安装需求.txt

python - 使用频繁项集挖掘构建关联规则?

linux - 使用 Bash 从日志文件的每一行中提取 IP 地址