Tensorflow 什么';在KubeFlow上,TF服务和KF服务是不同的

Tensorflow 什么';在KubeFlow上,TF服务和KF服务是不同的,tensorflow,model,tensorflow-serving,kubeflow,Tensorflow,Model,Tensorflow Serving,Kubeflow,Tfserving和KFServing都将模型部署在Kubeflow上,让用户可以轻松地将模型作为服务使用,而不需要了解Kubernetes的详细信息,从而隐藏底层 TFServing来自TensorFlow,它也可以在Kubeflow或单机版上运行 KFServing来自Kubeflow,它可以支持PyTorch、TensorFlow、MXNet等多种框架 我的问题是这两个项目之间的主要区别是什么 如果我想在生产中推出我的模型,我应该使用哪一种?哪个性能更好?服务是推理之上的抽象,而不是替

Tfserving和KFServing都将模型部署在Kubeflow上,让用户可以轻松地将模型作为服务使用,而不需要了解Kubernetes的详细信息,从而隐藏底层

  • TFServing来自TensorFlow,它也可以在Kubeflow或单机版上运行

  • KFServing来自Kubeflow,它可以支持PyTorch、TensorFlow、MXNet等多种框架

我的问题是这两个项目之间的主要区别是什么


如果我想在生产中推出我的模型,我应该使用哪一种?哪个性能更好?

服务是推理之上的抽象,而不是替代。它试图简化部署,并使推理客户端不知道推理服务器在幕后执行的实际工作(无论是TF Serving、Triton(以前的TRT-is)、Seldon等)。它通过在推理服务器供应商之间寻求关于推理数据平面规范的协议来实现这一点,该规范允许额外的组件(如转换和解释程序)更加可插拔

谢谢你的回答,这对我来说很有意义。所以我可以说KFserving是建立在TFserving之上的