Python 大规模部署ML模型GCP/Django,如何管理会话?

Python 大规模部署ML模型GCP/Django,如何管理会话?,python,django,flask,google-cloud-platform,fastapi,Python,Django,Flask,Google Cloud Platform,Fastapi,我已经构建了我的模型(转储文件),但是我需要为一些用户部署它(第一次可能是10个)。这是一个聊天机器人,但是: 链接到上一条消息的每条消息(您好,我能为您提供什么帮助?…我需要相关提示…确定哪些提示??) 这是一个web应用程序,我认为是要使用的第一个架构: Flask Rest/FastAPI将模型部署为云运行(GCP)中的API 我将Django REST用于web后端,因此,我想在Django部分调用ML模型REST api 因此,理想的模式是每个用户都可以访问专用的聊天机器人(M

我已经构建了我的模型(转储文件),但是我需要为一些用户部署它(第一次可能是10个)。这是一个聊天机器人,但是:

  • 链接到上一条消息的每条消息(您好,我能为您提供什么帮助?…我需要相关提示…确定哪些提示??)
这是一个web应用程序,我认为是要使用的第一个架构:

  • Flask Rest/FastAPI将模型部署为云运行(GCP)中的API
  • 我将Django REST用于web后端,因此,我想在Django部分调用ML模型REST api
因此,理想的模式是每个用户都可以访问专用的聊天机器人(ML模型)

from fastapi import FastAPI
app = FastAPI()

MODEL="./model/mdel.dump"
...