Tensorflow serving 能不能“a”;不支持节点名称的地址系列“;警告:防止正确的服务?

Tensorflow serving 能不能“a”;不支持节点名称的地址系列“;警告:防止正确的服务?,tensorflow-serving,Tensorflow Serving,我设法将Keras模型导出到基于tensorflow/serving:1.10.0-gpu的容器中进行分段。但是,在启动时,我注意到docker日志中的一个警告,就在事件循环开始之前:[warn]getaddrinfo:nodename的地址系列不受支持。我不确定这意味着什么,但到目前为止,我还无法从服务器获得响应。相反,客户端收到一个status=StatusCode.UNAVAILABE,details=“OS Error”,“grpc\u status”:14 这和那个警告有什么关系吗?由

我设法将Keras模型导出到基于
tensorflow/serving:1.10.0-gpu
的容器中进行分段。但是,在启动时,我注意到docker日志中的一个警告,就在事件循环开始之前:
[warn]getaddrinfo:nodename的地址系列不受支持
。我不确定这意味着什么,但到目前为止,我还无法从服务器获得响应。相反,客户端收到一个
status=StatusCode.UNAVAILABE
details=“OS Error”
“grpc\u status”:14

这和那个警告有什么关系吗?由于此
不受支持的地址系列
,我是否在gRPC客户端和tfserving容器之间遇到某种网络问题

为了完整起见,我将docker日志发布在下面。请注意,为了便于阅读,我从日志中清除了时间戳和不重要的行:


[]:I tensorflow_serving/model_servers/main.cc:157]构建单个tensorflow模型文件配置:model_name:mrcnn model_base_路径:/models/mrcnn
[]:I tensorflow_serving/model_servers/server_core.cc:462]添加/更新模型。
[]:I tensorflow_serving/model_servers/server_core.cc:517](重新)添加模型:mrcnn
[]:I tensorflow_serving/core/basic_manager.cc:739]已成功保留资源以加载可服务{name:mrcnn version:1}
[]:I tensorflow_serving/core/loader_harnese.cc:66]批准可服务版本{name:mrcnn version:1}的加载
[]:I tensorflow_serving/core/loader_harnese.cc:74]加载可服务版本{name:mrcnn version:1}
[]:I external/org\u tensorflow/tensorflow/contrib/session\u bundle/bundle\u shim.cc:360]试图从:/models/mrcnn/1在bundle shim中加载本机保存的模型绑定
[]:I external/org_tensorflow/tensorflow/cc/saved_model/reader.cc:31]从:/models/mrcnn/1读取saved模型
[]:I external/org_tensorflow/tensorflow/cc/saved_model/reader.cc:54]读取带有标记{serve}的元图
[]:I external/org_tensorflow/tensorflow/core/common_runtime/gpu/gpu_device.cc:1097]创建了tensorflow设备(/job:localhost/replica:0/task:0/device:gpu:0和10277 MB内存)->物理gpu(设备:0,名称:GeForce GTX 1080 Ti,pci总线id:0000:68:00.0,计算能力:6.1)
[]:I external/org\u tensorflow/tensorflow/cc/saved\u model/loader.cc:113]正在恢复saved模型包。
[]:I external/org_tensorflow/tensorflow/cc/saved_model/loader.cc:148]在SavedModel bundle上运行LegacyInitOp。
[]:I external/org_tensorflow/tensorflow/cc/saved_model/loader.cc:233]为标记{serve}保存模型加载;状态:成功。用了1240882微秒。
[]:I tensorflow_serving/core/loader_harnese.cc:86]已成功加载可服务版本{name:mrcnn version:1}
[]:I tensorflow_serving/model_servers/main.cc:327]以0.0.0.0:8500运行ModelServer。。。
[警告]getaddrinfo:不支持节点名的地址族
[evhttp_server.cc:235]原始:进入事件循环。。。
[]:I tensorflow_serving/model_servers/main.cc:337]在以下位置导出HTTP/RESTAPI:localhost:8501。。

简短的回答是否定的,警告是良性的。我的直觉是,您的客户端无法与服务器通信,可能是因为您绑定了docker端口或客户端代码,或者是您如何调用它。

启动容器时,请不要忘记使用“-p”选项指定端口


这个问题最终被nvidia docker搞得很奇怪。但是很高兴知道警告不会引起问题。
docker run -d -p <port out>:<port in> <IMAGE>
docker-machine ip