Tensorflow服务:RESTAPI返回;格式错误的请求”;错误

Tensorflow服务:RESTAPI返回;格式错误的请求”;错误,rest,tensorflow,machine-learning,tensorflow-serving,Rest,Tensorflow,Machine Learning,Tensorflow Serving,Tensorflow服务服务器(与docker一起运行)通过以下方式响应我的GET(和POST)请求: {“错误”:“格式错误的请求:POST/v1/models/saved_model/”} 完全相同的问题已经报告,但从未解决(据推测,这是一个StackOverflow类型的问题,而不是GitHub问题): 有什么想法吗?非常感谢。取决于您的型号,但我的身体是这样的: {“输入”:{“文本”:[“你好”]} 我用邮递员帮我,让它知道这是一个JSON 这是用于预测API的,因此url以“:p

Tensorflow服务服务器(与docker一起运行)通过以下方式响应我的GET(和POST)请求:

{“错误”:“格式错误的请求:POST/v1/models/saved_model/”}

完全相同的问题已经报告,但从未解决(据推测,这是一个StackOverflow类型的问题,而不是GitHub问题):


有什么想法吗?非常感谢。

取决于您的型号,但我的身体是这样的:

{“输入”:{“文本”:[“你好”]}

我用邮递员帮我,让它知道这是一个JSON

这是用于预测API的,因此url以“:predict”结尾
同样,这取决于您尝试使用的API。

我的方法有两个问题:

1) 我的Tensorflow_model_服务器不支持状态检查请求(有关详细信息,请参阅)

2) 更重要的是,在使用Windows时,必须在JSON中转义引号。因此,不是:

curl -XPOST http://localhost:8501/v1/models/saved_model:predict -d "{"instances":[{"features":[1,1,1,1,1,1,1,1,1,1]}]}"
我应该用这个:

curl -XPOST http://localhost:8501/v1/models/saved_model:predict -d "{\"instances\":[{\"features\":[1,1,1,1,1,1,1,1,1,1]}]}"

模型状态API仅在主分支中受支持。目前还没有支持它的TF服务版本(API计划在即将发布的1.12版本中发布)。您可以使用夜间docker映像(tensorflow/serving:nightly)在主分支构建上进行测试

此解决方案由netf在年给出。 我已经尝试过这个解决方案,它已经完成,我可以得到模型状态。(这是模型状态演示的img)

希望我能帮助你

如果您没有清除主分支生成,可以与我联系

我可以给你指示


电邮:mizeshuang@gmail.com

我验证了这在v12之前不起作用,在v12之后确实起作用

> docker run -it -p 127.0.0.1:9000:8500 -p 127.0.0.1:9009:8501 -v /models/55:/models/55 -e MODEL_NAME=55 --rm tensorflow/serving
> curl http://localhost:9009/v1/models/55
   { "error": "Malformed request: GET /v1/models/55" }
现在尝试v12:

> docker run -it -p 127.0.0.1:9000:8500 -p 127.0.0.1:9009:8501 -v /models/55:/models/55 -e MODEL_NAME=55 --rm tensorflow/serving:1.12.0
> curl http://localhost:9009/v1/models/55
{
 "model_version_status": [
  {
   "version": "1541703514",
   "state": "AVAILABLE",
   "status": {
    "error_code": "OK",
    "error_message": ""
   }
  }
 ]
}

你是对的,但我的问题是别的(见上文),尽管如此,谢谢。