我最近开始使用 Jupyter Lab,我的问题是我需要处理相当大的数据集(通常数据集本身大约是我计算机 RAM 的 1/4)。经过几次转换,保存为新的 Python 对象后,我往往会耗尽内存。问题是,当我接近可用 RAM 限制并执行任何需要另一个 RAM 空间的操作时,我的计算机会卡住,修复它的唯一方法就是重新启动它。这是 Jupyter Lab/Notebook 中的默认行为还是我应该设置的一些设置?通常,我希望程序崩溃(例如在 RStudio 中),而不是整个计算机崩溃
最佳答案
解决这个问题最可靠的解决方案绝对是使用 Docker 容器。您可以指定分配给 Jupyter 多少内存,如果容器内存不足也没什么大不了的(只要记住经常保存即可,但这是不言而喻的)。
This blog会带你到达那里的大部分路。这里还有一些关于从免费提供的、官方维护的 Jupyter 图像中设置 Jupyter Lab 的不错的说明:
https://medium.com/fundbox-engineering/overview-d3759e83969c
然后您可以按照教程中所述修改 docker run
命令(例如,对于 3GB):
docker run --memory 3g <other docker run args from tutorial here>
有关 docker 内存选项的语法,请参阅此问题:
关于python - Jupyter Lab 在 RAM 不足时卡住计算机 - 如何预防?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58400437/