如何使用RESTAPI端点启动TensorFlow服务ModelServer

如何使用RESTAPI端点启动TensorFlow服务ModelServer,rest,tensorflow,tensorflow-serving,Rest,Tensorflow,Tensorflow Serving,我试图利用这种新的可能性向TensorFlow ModelServer发送HTTP请求。但是,当我尝试运行以下命令时,它无法识别--rest\u api\u port参数: tensorflow_model_server --rest_api_port=8501 \ --model_name=half_plus_three \ --model_base_path=$(pwd)/serving/tensorflow_serving/servables/tensorflow/testda

我试图利用这种新的可能性向TensorFlow ModelServer发送HTTP请求。但是,当我尝试运行以下命令时,它无法识别--rest\u api\u port参数:

tensorflow_model_server --rest_api_port=8501 \
   --model_name=half_plus_three \
   --model_base_path=$(pwd)/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_three/

unknown argument: --rest_api_port=8501

我遇到了同样的错误。我浏览了源代码

main.cc
文件中,下面的源代码版本r1.7中没有
rest\u api\u port
选项

因此,如果您想使用REST,您需要使用上面的tensorflow服务r1.8,或者自己实现它


希望这对您有所帮助。

谢谢吉米。您有没有一个好的方法来检查tensorflow服务版本?事实证明,我遇到了问题,因为我试图在AWS深度学习AMI上运行,尽管它似乎说它更新到了最新版本,但显然它没有更新。(如果我尝试升级,它说tensorflow model server已经是最新版本1.8)@CSquare那么,您是否使用bazel自己构建tensorflow model server?或者像apt get一样下载并安装它?如果出现前面提到的错误,则tensorflow服务的安装版本不是1.8版。请告诉我您使用哪种方法安装它。我尝试了用户指南中推荐的“pip安装-升级”()我尝试了apt get,但DL AMI预装了tensorflow,当我使用apt get时,它似乎安装了所有内容(没有看到以前的安装?),但从功能上看,这并没有什么区别。我不知道如何查看安装到哪里以及程序从哪里调用。我解决了这个问题,取而代之的是使用一个没有这些预安装的AMI,然后自己安装tensorflow。