我正在运行一个gunicorn工作进程来读取一个巨大的excel文件,该文件最多需要5分钟并使用4GB RAM。但在请求处理完成后,我在系统监视器上注意到它仍然永远分配 4GB RAM。关于如何释放内存有什么想法吗?
最佳答案
您可以尝试为gunicornworker设置max-requests(N)参数,以指示在处理N个请求后重新启动worker。
您可以在此处引用有关最大请求设置的更多信息: http://docs.gunicorn.org/en/stable/settings.html
关于python - Gunicorn 工作线程在请求后不会压缩内存,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51866904/