Python:读取 TIFFArray 时内存使用量增加

标签 python numpy

我有一个“TIFFFiles”列表,其中每个“TIFFFiles”都包含一个“TIFFArray”,其中包含 60 个 tiff 图像,每个图像的大小为 2776x2080 像素。图像被读取为 numpy.memmap 对象。 我想访问图像的所有强度(图像的形状:(60,2776,2080))。我使用以下代码:

for i in xrange(18):

    #get instance of type TIFFArray from tiff_list
    tiffs = get_tiff_arrays(smp_ppx, type_subfile,tiff_list[i])

    #accessing all intensities from tiffs
    imgs = tiffs[:,:,:]

即使在每个迭代步骤中覆盖“tiffs”和“imgs”,我的内存也会增加 2.6GByte。如何避免在每个迭代步骤中复制数据?有什么办法可以重复使用2.6GByte的内存吗?

最佳答案

我知道这可能不是答案,但无论如何它可能会有帮助,而且评论时间太长。

前段时间,我在使用numpy 读取大型 (>1Gb) ascii 文件时遇到内存问题:基本上是使用 numpy.loadtxt 读取文件,代码是使用整个内存 (8Gb) 加上一些交换空间。

据我了解,如果您事先知道要填充的数组的大小,则可以分配它并将其传递给例如 loadtxt。这应该可以防止 numpy 分配临时对象,并且在内存方面可能更好。

mmap ,或类似的方法,可以帮助提高内存使用率,但我从未使用过它们。

编辑

内存使用和释放的问题让我在试图解决我的大文件问题时感到疑惑。基本上我有

def read_f(fname):
    arr = np.loadtxt(fname)  #this uses a lot of memory
    #do operations
    return something  
for f in ["verylargefile", "smallerfile", "evensmallerfile"]:
    result = read_f(f)

根据我所做的内存分析,在返回 loadtxt 或返回 read_f 并使用较小的文件再次调用时都没有内存释放。

关于Python:读取 TIFFArray 时内存使用量增加,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14702854/

相关文章:

python - 如何合并两个数据帧并正确索引生成的数据帧(从零开始到行数-1)

python - 区分参数值 `None` 和默认参数值 `None`

python - 导入错误 : No module named six [Windows]

python - 关于 pandas 按功能分组的问题?

Python:只有 numpy 的低通滤波器

python - 使用 Numba 对每一行应用多个函数

python - spacy 与 joblib 库生成 _pickle.PicklingError : Could not pickle the task to send it to the workers

python - 如何检查错误的日期时间条目(python/pandas)?

python - 错误的 numpy 平均值?

python - OpenCV Python 中的变形操作