Cors tensorflow\模型\服务器访问控制允许源

Cors tensorflow\模型\服务器访问控制允许源,cors,tensorflow-serving,Cors,Tensorflow Serving,我想设置一个TensorFlow服务端点,它可以像API一样从不同的源域访问。我已经成功导出了我的模型,我可以通过curl中的POST请求获得预测。但是,当我尝试在浏览器中获取预测时,请求被阻止,因为TensorFlow服务没有返回访问控制允许源站标题 我使用的是tensorflow/servicedocker图像,如中所示。(我知道这在内部使用了tensorflow\u model\u服务,而这反过来又建立在gRPC之上。) 以下是Chrome的错误: Failed to load http:

我想设置一个TensorFlow服务端点,它可以像API一样从不同的源域访问。我已经成功导出了我的模型,我可以通过curl中的POST请求获得预测。但是,当我尝试在浏览器中获取预测时,请求被阻止,因为TensorFlow服务没有返回
访问控制允许源站
标题

我使用的是
tensorflow/service
docker图像,如中所示。(我知道这在内部使用了
tensorflow\u model\u服务
,而这反过来又建立在gRPC之上。)

以下是Chrome的错误:

Failed to load http://<TensorFlow Serving Domain>/v1/models/<Model Name>:predict: No 'Access-Control-Allow-Origin' header is present on the requested resource. Origin 'http://localhost:8000' is therefore not allowed access.
加载失败http:///v1/models/:predict: 请求的资源上不存在“Access Control Allow Origin”标头。起源'http://localhost:8000因此,不允许访问。

那么,有没有办法让TensorFlow服务返回一个
访问控制允许来源
头?

目前没有。您可能想考虑代理处理请求,这样它可以符合您的环境。这也将允许负载平衡、URL重写、安全连接等,因为您可能需要。

您最终是如何解决这一问题的?