我使用 pandas 创建了一个大型(120GB;10 亿行)HDF5 文件。在最初创建 hdf 文件后,我像这样添加到文件中:
with pd.get_store(path_output) as hdf_output:
for i in range(BIG_LOOP):
df = ...
hdf_output.append('all', df, data_columns=[])
我特意设置了 data_columns=[] 以避免在创建时建立索引。现在我有了 HDF 文件,我想将索引添加到多个列(例如,columns_to_index=['A', 'B', 'C'])
不知何故,根据 ptdump,我目前确实有 data_columns:=['A']
,但我不记得这是怎么发生的。 (也许最初的 df 是用不同的参数编写的(我连续几天添加到 hdfstore,我可能已经改变了一些东西)。无论如何,不管它是如何创建的,我想索引额外的列。
简单地调用 mystore.create_table_index('all', columns=['A', 'B', 'C'], optlevel=9, kind='full')
不起作用, 显然。我第一次运行它时,它搅动了一个小时,文件大小增加了 2 GB(检查元数据显示 block 大小增加了),但我没有所有 3 个索引(只有 'A' 的索引)。 如何为所有 3 列生成索引?
我还注意到 ptdump 中的这一行——似乎令人不安的是我为要索引的项目设置了“non_index_axes”:non_index_axes := [(1, ['A', 'B' , 'C'])]
如果无法在 pandas 中创建索引,我将不胜感激有关如何直接在 pytables 中执行此操作的建议。 (例如,我是否需要先删除任何现有索引?以及如何修改“non_index_axes”和“data_coumns”)
编辑:预料到有关我的用例的问题,这是我要完成的事情的总体情况:
从 CSV 文件中读取 120 GB 的数据。每个文件代表一天的财务数据,由 100,000 行组成,每行大约有十二列。我只是将每一行按顺序存储在 HDF5 文件中。我希望这个初始阶段能够快速运行,因此我关闭了索引。目前,我在 6 秒内读取和解析每个 CSV 文件,并且像上面那样存储到 HDF5 文件中只需要 1.5 秒。
索引少数(不是全部)列以支持各种查询,例如获取第 1 列中具有给定字符串和特定范围内第 2 列中的日期的所有项目。
随着时间的推移,每天我都会解析一个新的 CSV 文件并将其添加到 HDF5 文件中。我希望指数会继续更新。
(根据我的访问模式,我存储行的顺序(目前,按日期)可能仍然是检索的最佳顺序。我最终可能还需要在大多数查询中按不同的列排序,在这种情况下,我认为我需要在解析并附加每个 CSV 文件后重新对表格进行排序。)
目前我停留在第 2 步,生成列索引。
最佳答案
我会做的有点不同 - take a look at this small example :
for chunk in ... # reading data in chunks:
# specify `data_columns`, but don't index (`index=False`)
hdf_output.append('all', chunk, data_columns=[cols_to_index], index=False)
# index columns explicitly
hdf_output.create_table_index(hdf_key, columns=cols_to_index, optlevel=9, kind='full')
关于python - pandas.HDFStore : How do I modify "data_columns" for an existing store? 我想向不在数据列中的列添加索引,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38706359/