如何使用Tensorflow服务在AI平台上创建HTTP服务器
我正试图遵循官方文档,使用Tensorflow在AI平台上创建HTTP服务器 我使用下面的Dockerfile创建了一个简单的docker映像,并将其推送到工件注册表:如何使用Tensorflow服务在AI平台上创建HTTP服务器,tensorflow,google-cloud-platform,google-cloud-ml,Tensorflow,Google Cloud Platform,Google Cloud Ml,我正试图遵循官方文档,使用Tensorflow在AI平台上创建HTTP服务器 我使用下面的Dockerfile创建了一个简单的docker映像,并将其推送到工件注册表: FROM tensorflow/serving:2.3.0-gpu # copy the model file ENV MODEL_NAME=my_model COPY my_model /models/my_model 但每次我尝试为模型创建版本时,Tensorflow服务器都会启动,但版本创建失败,出现以下错误: Err
FROM tensorflow/serving:2.3.0-gpu
# copy the model file
ENV MODEL_NAME=my_model
COPY my_model /models/my_model
但每次我尝试为模型创建版本时,Tensorflow服务器都会启动,但版本创建失败,出现以下错误:
Error: model server never became ready. Please validate that your model file or container configuration are valid.
因此,我的问题是:有没有一种建议/推荐的方法可以在AI平台上使用Tensorflow服务于定制容器