是否可以导出syntaxnet模型(Parsey McParseface)以使用TensorFlow服务?

是否可以导出syntaxnet模型(Parsey McParseface)以使用TensorFlow服务?,tensorflow,syntaxnet,tensorflow-serving,parsey-mcparseface,Tensorflow,Syntaxnet,Tensorflow Serving,Parsey Mcparseface,我的demo.sh工作得很好,我已经查看了parser_eval.py并在某种程度上对其进行了摸索。然而,我不知道如何使用TensorFlow服务来服务这个模型。我可以从顶部看到两个问题: 1) 这些图没有导出的模型,每次调用时都使用图生成器(例如structured_graph_builder.py)、上下文协议缓冲区和一大堆其他我目前不完全理解的东西(似乎还注册了其他syntaxnet.ops)来构建图。所以是否可能,以及如何将这些模型导出到服务和会话bundlefactory所需的“bun

我的demo.sh工作得很好,我已经查看了parser_eval.py并在某种程度上对其进行了摸索。然而,我不知道如何使用TensorFlow服务来服务这个模型。我可以从顶部看到两个问题:

1) 这些图没有导出的模型,每次调用时都使用图生成器(例如structured_graph_builder.py)、上下文协议缓冲区和一大堆其他我目前不完全理解的东西(似乎还注册了其他syntaxnet.ops)来构建图。所以是否可能,以及如何将这些模型导出到服务和
会话bundlefactory
所需的“bundle”形式?如果不是,那么图形构建逻辑/步骤将需要在C++中重新实现,因为服务只在C++上下文中运行。
2) 实际上,demo.sh是两个与UNIX管道连接在一起的模型,因此任何可服务都必须(可能)构建两个会话,并将数据从一个封送到另一个。这是正确的方法吗?或者,是否有可能构建一个包含两个模型“拼凑”在一起的“大”图,并将其导出?

因此,经过大量的学习、研究等,我最终为tensorflow/models和syntaxnet编写了一个pull请求,以实现从TF服务中为Parsey McParseface提供服务的目标


这里没有的是实际的“服务”代码,但与解决上述问题的工作相比,这相对来说是微不足道的。

我创建了一个存储库来存放一个简单的(WIP)TF服务工件来为模型服务。随附nodejs gRPC测试客户端。