我有一个“TIFFFiles”列表,其中每个“TIFFFiles”都包含一个“TIFFArray”,其中包含 60 个 tiff 图像,每个图像的大小为 2776x2080 像素。图像被读取为 numpy.memmap 对象。 我想访问图像的所有强度(图像的形状:(60,2776,2080))。我使用以下代码:
for i in xrange(18):
#get instance of type TIFFArray from tiff_list
tiffs = get_tiff_arrays(smp_ppx, type_subfile,tiff_list[i])
#accessing all intensities from tiffs
imgs = tiffs[:,:,:]
即使在每个迭代步骤中覆盖“tiffs”和“imgs”,我的内存也会增加 2.6GByte。如何避免在每个迭代步骤中复制数据?有什么办法可以重复使用2.6GByte的内存吗?
最佳答案
我知道这可能不是答案,但无论如何它可能会有帮助,而且评论时间太长。
前段时间,我在使用numpy
读取大型 (>1Gb) ascii 文件时遇到内存问题:基本上是使用 numpy.loadtxt
读取文件,代码是使用整个内存 (8Gb) 加上一些交换空间。
据我了解,如果您事先知道要填充的数组的大小,则可以分配它并将其传递给例如 loadtxt
。这应该可以防止 numpy
分配临时对象,并且在内存方面可能更好。
mmap
,或类似的方法,可以帮助提高内存使用率,但我从未使用过它们。
编辑
内存使用和释放的问题让我在试图解决我的大文件问题时感到疑惑。基本上我有
def read_f(fname):
arr = np.loadtxt(fname) #this uses a lot of memory
#do operations
return something
for f in ["verylargefile", "smallerfile", "evensmallerfile"]:
result = read_f(f)
根据我所做的内存分析,在返回 loadtxt
或返回 read_f
并使用较小的文件再次调用时都没有内存释放。
关于Python:读取 TIFFArray 时内存使用量增加,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14702854/