python - Python多处理中写入共享内存(列表)的同步

标签 python multiprocessing shared-memory python-multiprocessing multiprocessing-manager

我有以下代码:

import multiprocessing
manager = multiprocessing.Manager()

如果列表的长度小于 4 则追加列表或创建一个初始值为“y”的新列表的函数。

def f(my_array):
    if len(my_array) < 4:
        my_array.append('x')
    else:
        my_array = ['y']
    print(my_array)

列表的初始化和创建过程。

if __name__ == '__main__':
    my_array = manager.list(['a', 'b', 'c'])

    p1 = Process(target=f, args=(my_array))
    p2 = Process(target=f, args=(my_array))
    p3 = Process(target=f, args=(my_array))
    p4 = Process(target=f, args=(my_array))
    p5 = Process(target=f, args=(my_array))

    p1.start()
    p2.start()
    p3.start()
    p4.start()
    p5.start()

    p1.join()
    p2.join()
    p3.join()
    p4.join()
    p5.join()

我得到的输出:

['a', 'b', 'c', 'x']
['y']
['y']
['y'] 
['y']

我不明白为什么列表只附加一次。我预计在第三个输出行中我会观察列表 ['y'] 附加 'x',所以 ['y', 'x'],第四个 ['y', 'x', 'x']等等。似乎共享内存泄漏或不允许通过多个进程的函数进行更改。我可以做些什么来实现目标行为?

最佳答案

您的示例中缺少一点同步。 manager.list 只是一个单独的服务器进程中的普通 list,您的工作进程可以通过代理对象对其进行修改。您的进一步进程恰好同时检查 len(my_array)

没有同步,这告诉他们应该等到另一个进程完成它的操作,包括执行此长度检查并根据此检查的结果执行操作。您的更新操作不是原子操作,您需要通过在操作周围使用 manager.lock 使其成为一个原子操作。

您的代码中还有另一个问题,您重新绑定(bind) my_array 以指向普通列表 ['y'],而不是更新/修改共享 管理器列表。您没有使用设置 my_array = ['y'] 的进程修改 manager.listmanager.list 保持其值 ['a', 'b', 'c', 'x'] 从第一次修改到第一个工作进程直到程序结束。

from multiprocessing import Process, Manager


def f(my_array, lock):
    with lock:
        if len(my_array) < 4:
            my_array.append('x')
        else:
            my_array[:] = []  # clear list inplace by assigning
            # empty list to slice of manager.list
            my_array.append('y')
    print(my_array)


if __name__ == '__main__':

    N_WORKERS = 5

    with Manager() as manager:

        my_array = manager.list(['a', 'b', 'c'])
        lock = manager.Lock()

        pool = [
            Process(target=f, args=(my_array, lock)) for _ in range(N_WORKERS)
        ]

        for p in pool:
            p.start()
        for p in pool:
            p.join()

        # Leaving the context-manager block will shut down the manager-process.
        # We need to convert the manager-list to a normal list in the parent
        # to keep its values available for further processing in the parent.
        result = list(my_array)

    print(f'result: {result}')

示例输出:

['a', 'b', 'c', 'x']
['y']
['y', 'x']
['y', 'x', 'x']
['y', 'x', 'x', 'x']
result: ['y', 'x', 'x', 'x']

Process finished with exit code 0

关于python - Python多处理中写入共享内存(列表)的同步,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53697082/

相关文章:

python - 无法将 python 包下载到 Docker 镜像中

python - 结束程序后发生的奇怪的键盘中断错误

C - 多个子级 - 信号相互覆盖

python - 多处理 + 请求挂起,出现异常 AttributeError : 'file' object has no attribute 'out'

python - 在 Snakemake 中使用 STAR 共享内存模块进行顺序对齐任务

python - 将字符串转换为原始字节

Python 字典数组

python - 多处理中的外部与内部 __main__ 变量定义

c++ - 减少(op :var) has the same effect as shared(var)

c++ - 共享内存 - 需要同步