python - 高效转换 Pandas DataFrame

标签 python pandas cython opentsdb

我有几个指标(每秒 2000 行 x 100 列数据帧,可能更大),我想将它们存储在 OpenTSDB 中。为此,我需要以数据库可以理解的方式格式化值,或者 telnet stylejson style .

问题是,使用简单的 python 函数,我无法足够快地处理它们。这是我的第一个方法:

def ndarray_to_opentsdb_series_comprehension(frame, table, **tags):
    series = [{
        "metric": '{table}.{col}'.format(
            table=table, col=frame.columns[col].item()
         ),
         "timestamp": frame.index[idx].item(),
         "value": val.item(),
         "tags": tags
    } for col, serie in frame.iteritems() for idx, val in serie.iteritems()]
    return json.dumps(series)

在 2000x100 数据帧上使用 timeit,我得到:

In [1]: %timeit utilities.ndarray_to_opentsdb_series_comprehension(f, 't1', p1='p1')
1 loops, best of 3: 3.9 s per loop

然后,我尝试使用 DataFrame.apply 函数更有效地迭代我的数据,但我必须执行多次才能获取我需要的所有信息:

def ndarray_to_opentsdb_series_tmp_df(frame, table, **tags):
    tags_str = ' '.join('{k}={v}'.format(k=k, v=v) for k, v in tags.items())
    df = frame.apply(lambda s: s.apply(lambda e: '{ts} {v} {tags}'.format(ts=s.name, v=e, tags=tags_str)), axis=1)
    df = df.apply(lambda s: s.apply(lambda e: '{table}.{col} {v}'.format(table=table, col=s.name, v=e)), axis=0)
    flat = [e for l in df.values.tolist() for e in l]
    return '\n'.join(flat)

(我尝试了其他不创建多个数据帧的实现,但它的速度大致与这个一样快)。

在这里,timeit 说:

In[1]: %timeit utilities.ndarray_to_opentsdb_series_tmp_df(f, 't1', p1='p1')
1 loops, best of 3: 2.59 s per loop

我已经获得了超过一秒的时间,但这仍然不够,我需要能够在一秒内处理那么多数据。在测试过程中,我意识到最耗时的是检索 DataFrame 中给定值的索引列对,但我需要这些来构建我的 OpenTSDB 请求。

有没有一种方法可以仅使用 python 来处理大 DataFrame,或者我应该尝试在 Cython 中实现此逻辑?我知道我可以获得巨大的改进,但我想确保在尝试使用较低级别的语言进行优化之前我拥有最佳的 python 代码。

最佳答案

好吧,我设法在大约 0.5 秒内处理了 2000 行 x 100 列的 DataFrame。在ipython中使用prun,我发现访问frame.columnsframe.index的成本很高,就像使用string.format

我选择首先使用其 tolist() 方法将 DataFrame 的列和索引转换为 Python 列表,然后对其进行索引。我停止使用 string.format 并使用 % 格式化程序(仅此一项就减少了我的函数的执行时间!)。

此外,我还使用了 DataFrame.apply 方法的 raw 属性来获取 numpy.ndarray 作为我的 lambda 函数的参数而不是 pandas.Series。然后我使用列表理解对其进行迭代。

这是我修改后的函数:

def ndarray_to_opentsdb_series(frame, table, **tags):
    tags_str = ' '.join('{k}={v}'.format(k=k, v=v) for k, v in tags.items())
    indices = frame.index.tolist()
    columns = frame.columns.tolist()
    df = frame.apply(lambda s: ['%d %d %s' % (indices[i], e, tags_str) for i, e in enumerate(s)], axis=0, raw=True)
    df = df.apply(lambda s: ['%s.%d %s' % (table, columns[i], e) for i, e in enumerate(s)], axis=1, raw=True)
    flat = [e for l in df.values.tolist() for e in l]
    return '\n'.join(flat)

简单地将其编译为 Cython 代码可将运行时间再减少 100 毫秒,我现在将尝试在 Cython 中对其进行更多优化。

关于python - 高效转换 Pandas DataFrame,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29039162/

相关文章:

python - 如何从 celery 任务异步调用 url

python - 如何使用 Python 访问属于对象的动态 C++ 数组变量?

python - 如何通过 cython 将 numpy 数组列表传递给 C++

python - 按一列分组并根据条件计算另一列?

python - Cython:了解具有间接连续内存布局的类型化内存 View

python - 在 Selenium 中打开之前设置 chromedriver 窗口大小(python)

python - Riak 在存储 key 时返回锁定状态

python - 值错误 : scatter requires x column to be numeric

python - 使用 Pandas 将列添加到数据透视表

python - Pandas 在 groupby 中设置值