类内的Python多处理共享字典

标签 python dictionary shared-memory

我想了解 multiprocessing 和 manager 如何工作以共享内存

我有一个类,其中有一个在类上创建的字典。init 我想使用多处理来调用填充字典的类函数(每个进程添加一个不同的键)。

import multiprocessing as mp
from multiprocessing import Process, Manager

class num:
    def __init__(self):
        manager = Manager()
        d = manager.dict()

        # Setup list of processes
        processes = [mp.Process(target=self.f, args=(d,i)) for i in range(5)]

        #Run processes 
        for p in processes:
            p.start()

        #Exit the completed processes
        for p in processes:
            p.join()

        print d

    def f(self,d,i):
        d[str(i)] = []
        d[str(i)].append(i)


if __name__ == '__main__':      
    test = num()

结果:

{'1': [], '0': [], '3': [], '2': [], '4': []}

f() 里面的列表也需要共享?如何以及为什么?

最佳答案

您需要将函数 f 中的行从:

d['i'] = [i]

类似于

d[str(i)] = i

这样您的进程就不会覆盖共享字典中彼此的条目。之后,它对我来说工作正常(在 Python 2.7.3 中),打印出

{'1': 1, '0': 0, '3': 3, '2': 2, '4': 4}

(此外,您发布的代码缺少import multiprocessing as mp)

更新:如果您只是希望共享字典中的值是列表,那么这是一个简单的更改,例如

d[str(i)] = [i]

如果您希望每个列表在所有进程之间共享,那么您可能需要在主进程中使用 manager.list() 创建这些列表,并将它们传递给所有进程子流程,例如:

    count = 5
    lists = [manager.list() for i in range(count)]
    for i in range(count):
        d[i] = lists[i]
    processes = [mp.Process(target=self.f, args=(d,i, lists)) for i in range(count)]

[...]

def f(self,d,i, lists):
    for j in range(i):       # just an example to show 
        lists[j].append(i)   # that the lists are shared between processes

我也试过直接将托管列表嵌套在托管字典中,但由于某种原因这不起作用,子进程无法更新列表。如图所示分别传递它们似乎有效,例如我可以让每个子进程更新多个列表:

{0: [1, 2, 3, 4], 1: [2, 3, 4], 2: [3, 4], 3: [4], 4: []}

关于类内的Python多处理共享字典,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28294585/

相关文章:

c++读取时同步共享内存

linux - 系统如何处理大量共享内存?

python - Python 中的字符串反转

python - 如何从 ValuesView 获取值(value)?尝试理解我的机器人的 Dialogflow 响应

python - 尽管改变 y 的值,.plot(y=) 仍给出相同的图表

python - 解析和创建嵌套字典

python - 使用 for 循环从字典中删除项目

arrays - 有没有更好的方法让 numpy.argmin() 忽略 NaN 值

java - 如何在Java中使用Map(或Set?)找到最常见的元素?

python - 在独立运行的 python 脚本之间共享 python 对象(例如 Pandas Dataframe)