python - 锁定 dask.multiprocessing.get 并将元数据添加到 HDF

标签 python pandas locking metadata dask

在纯 Python 中执行 ETL 任务,我想为每个考虑的原始输入文件收集错误指标和元数据(错误指标是根据文件数据部分提供的错误代码计算的,而元数据是存储在标题中)。这是整个过程的伪代码:

import pandas as pd
import dask
from dask import delayed
from dask import dataframe as dd

META_DATA = {}  # shared resource
ERRORS = {}  # shared resource

def read_file(file_name):
    global META_DATA, ERRORS

    # step 1: process headers
    headers = read_header(file_name)
    errors = {}
    data_bfr = []

    # step 2: process data section
    for line in data_section:
        content_id, data = parse_line(line)
        if contains_errors(data):
            errors[content_id] = get_error_code(data)
        else:
            data_bfr.append(content_id, data)

    # ---- Part relevant for question 1 ----
    # step 3: acquire lock for shared resource and write metadata
    with lock.acquire():
        write_metadata(file_name, headers)  # stores metadata in META_DATA[file_name]
        write_errors(file_name, errors)  # stores error metrics in ERRORS[file_name]

    return pd.DataFrame(data=data_bfr,...)

with set_options(get=dask.multiprocessing.get):
    df = dd.from_delayed([delayed(read_file)(file_name) \
                          for file_name in os.listdir(wd)])

    # ---- Part relevant for question 2 ----
    df.to_hdf('data.hdf', '/data', 'w', complevel=9, \
        complib='blosc',..., metadata=(META_DATA, ERRORS))

对于每个输入文件,read_file 返回一个pd.DataFrame,进一步将相关元数据和错误指标写入共享资源。我正在使用 dask 的多处理调度程序从延迟的 read_file 操作列表中计算一个 dask.dataframe

  • 问题 1:每个 read_file 操作都会写入共享资源 META_DATAERRORS。我必须做什么才能实现适用于 dask.multiprocessing.get 的正确锁定策略?从 with locket.lock_file('.lock'):-context 中将元数据和错误信息写入集合是否足够? multiprocessing.RLock 有效吗?我需要做什么来初始化锁以使用 dask?更根本的是,如何在 dask 中将 META_DATAERRORS 声明为共享资源?
  • 问题 2:如果可能,我想用元数据和错误度量来注释 HDF 数据。来自 question on "Collecting attributes from dask dataframe providers" , 我了解到 dask 目前不支持向数据帧添加元数据,但是可以将信息写入 HDF 吗?如果是这样,在这种情况下如何处理对共享资源的访问?

最佳答案

不要依赖全局变量

Dask 最适合 pure functions .

特别是,您的情况是 Python 的局限性,因为它(正确地)不在进程之间共享全局数据。相反,我建议您从函数中显式返回数据:

def read_file(file_name):
    ...
    return df, metadata, errors

values = [delayed(read_file)(fn) for fn in filenames]
dfs      = [v[0] for v in values]
metadata = [v[1] for v in values]
errors   = [v[2] for v in values]

df = dd.from_delayed(dfs)

import toolz
metadata = delayed(toolz.merge)(metadata)
errors = delayed(toolz.merge)(errors)

关于python - 锁定 dask.multiprocessing.get 并将元数据添加到 HDF,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39328398/

相关文章:

java - Map of Locks 是并发操作的安全方法吗

c# - 需要改进的线程锁定建议

python - 在 ubuntu 中安装 rpy2 时出错

python - 枚举列表中的项目,以便用户可以选择数值

python - 如何使用电子表格中的两个不同列制作分组条形图?

git - 如果在同一个存储库上并行运行更多 git 命令是否安全?

python - 更改使用导出 graphviz 创建的决策 TreeMap 的颜色

python - 自动生成Click命令的所有帮助文档

python - 根据纬度/经度和半径选择 geopandas 或 pandas 中的行

python - 交错列表并通过 pandas 分配到数据帧的两列?