需要Python模块在启动时加载机器学习模型-Gunicorn with Flask会为每个请求启动新流程吗?

需要Python模块在启动时加载机器学习模型-Gunicorn with Flask会为每个请求启动新流程吗?,flask,machine-learning,gunicorn,Flask,Machine Learning,Gunicorn,我有一个用Python开发的代码,它读取模型,并根据它接收到的输入检查模型并返回置信度分数。为了使此模型可供其他服务使用,我计划使用Flask。我计划使用Gunicorn和Flask前面的Nginx来处理HTTP请求 当我在app.run参数中添加threaded as True时,我可以一次发送多个请求,而不必一个接一个地等待。但是,员工是否为每个请求启动新流程?这是否意味着每次请求都会加载我的800 MB型号?我错过什么了吗 不。与旧的cgi脚本不同,如果所有设置都正确,wsgi应用程序应该

我有一个用Python开发的代码,它读取模型,并根据它接收到的输入检查模型并返回置信度分数。为了使此模型可供其他服务使用,我计划使用Flask。我计划使用Gunicorn和Flask前面的Nginx来处理HTTP请求


当我在app.run参数中添加threaded as True时,我可以一次发送多个请求,而不必一个接一个地等待。但是,员工是否为每个请求启动新流程?这是否意味着每次请求都会加载我的800 MB型号?我错过什么了吗

不。与旧的cgi脚本不同,如果所有设置都正确,wsgi应用程序应该保留在内存中。如何验证我是否正确设置?加载模型时,应该为每个工作人员记录一次日志,在启动时而不是在请求出现时。因此,这种繁重的工作最好在任何web服务器之外的后台进程中完成(请参阅)@这难道不意味着我将使用和工人数量一样多的内存吗?我有8个CPU,这意味着大约6.4GB的RAM。有没有办法避免这种情况?没有。与旧的cgi脚本不同,wsgi应用程序应该保留在内存中,如果一切设置正确如何验证我是否设置正确?加载模型时,应该为每个工作人员记录一次日志,而不是在启动时而不是在请求出现时。因此,这种繁重的工作最好在任何web服务器之外完成,在后台处理中(请参阅)@Igonato,这不意味着我将使用与工人数量相同的内存吗?我有8个CPU,这意味着大约6.4GB的RAM。有没有办法避免这种情况?