python - Gunicorn 工作线程在请求​​后不会压缩内存

标签 python gunicorn

我正在运行一个gunicorn工作进程来读取一个巨大的excel文件,该文件最多需要5分钟并使用4GB RAM。但在请求处理完成后,我在系统监视器上注意到它仍然永远分配 4GB RAM。关于如何释放内存有什么想法吗?

最佳答案

您可以尝试为gunicornworker设置max-requests(N)参数,以指示在处理N个请求后重新启动worker。

您可以在此处引用有关最大请求设置的更多信息: http://docs.gunicorn.org/en/stable/settings.html

关于python - Gunicorn 工作线程在请求​​后不会压缩内存,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51866904/

相关文章:

python - wxpython:如何访问放置在 wx.Sizer 对象中的对象?

python - 如何使用 Pandas 查找重复名称?

python - 根据另一个字典中的键增加字典中的值

python - 如何调试gunicorn应用程序?

订阅 react 源的 Python Web 服务在对象中产生奇怪的行为

django - 主管,Gunicorn(退出状态 127;预计不会)

python - Django:通过manage.py使用服务器和gunicorn等其他服务器之间的区别。哪个更好?

python - 从 google.cloud.logging_v2 导入类型 ImportError : cannot import name types

python - 使用中的 Gunicorn 连接 : ('0.0.0.0' , 5000)

python - 对 python 代码进行故障排除