我有大量栅格数据集,代表几十年来的每月降雨量。我用 Python 编写了一个脚本,它遍历每个栅格并执行以下操作:
- 将栅格转换为 numpy 掩码数组,
- 执行大量数组代数来计算新的水位,
- 将结果写入输出栅格。
- 重复
脚本只是由循环语句包围的一长串数组代数方程。
如果我只在我的一小部分数据(比如 20 年的值(value))上运行脚本,一切都会很好,但如果我尝试处理全部数据,我会得到一个 MemoryError
。该错误没有提供更多信息(除了它突出显示 Python 放弃的代码行)。
不幸的是,我不能轻松地分 block 处理我的数据 - 我真的需要能够一次完成全部工作。这是因为,在每次迭代结束时,输出(水位)作为起点反馈到下一次迭代中。
目前我对编程的理解非常基础,但我认为我的所有对象都会在每个循环中被覆盖。我(愚蠢地?)假设如果代码成功循环一次,那么它应该能够无限循环而不会占用越来越多的内存。
我尝试阅读各种文档,发现了一种叫做“垃圾收集器”的东西,但我觉得我已经超出了我的深度,我的大脑正在融化!任何人都可以对我的代码循环时内存中的对象实际发生的情况提供一些基本的见解吗?有没有办法在每个循环结束时释放内存,还是有一些更“Pythonic”的编码方式可以完全避免这个问题?
最佳答案
您无需担心内存管理,尤其是垃圾收集器,因为垃圾收集器有非常具体的任务,您很可能甚至不会使用。 Python 将始终收集它可以收集的内存并重用它。
您的问题只有两个原因:您尝试加载的数据太多而无法放入内存,或者您的计算将数据存储在某个地方(列表、字典、迭代之间的持久性),并且存储空间不断增长。 Memory profilers can help找到那个。
关于python - 如何在 python 中遍历大型数据集而不会出现 MemoryError?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4098162/