Tensorflow 生产中的深度学习模式,后端还是前端?

Tensorflow 生产中的深度学习模式,后端还是前端?,tensorflow,architecture,deep-learning,production,Tensorflow,Architecture,Deep Learning,Production,我最近建立了一个网站,用户可以上传照片,然后会有一个POST请求发送到后端,以进一步预测照片。目前,web的用例是。。。有人打开手机浏览器,用手机拍照并上传。因此,基本上网络是在手机的浏览器上运行的,而不是在计算机上 后端:keras+flask+gunicorn+nginx托管在GPU驱动的机器上1080 Ti*2 我的问题是。。就速度而言,这是一个好的架构吗? 我听说有人说POST请求会很慢,因为通过http发送照片很慢 我想知道使用Tensorflow.js在客户端加载模型是否是一个更好的

我最近建立了一个网站,用户可以上传照片,然后会有一个POST请求发送到后端,以进一步预测照片。目前,web的用例是。。。有人打开手机浏览器,用手机拍照并上传。因此,基本上网络是在手机的浏览器上运行的,而不是在计算机上

后端:keras+flask+gunicorn+nginx托管在GPU驱动的机器上1080 Ti*2

我的问题是。。就速度而言,这是一个好的架构吗? 我听说有人说POST请求会很慢,因为通过http发送照片很慢

我想知道使用Tensorflow.js在客户端加载模型是否是一个更好的选择?它看起来很棒,因为不需要将照片发布到后端,但这也意味着我的GPU不会被使用? 我在网上搜索过,但找不到任何参考或比较


谢谢大家! 欢迎来到StackOverflow。请按照您创建此帐户时的建议,阅读并遵循帮助文档中的发布指南,在这里申请。StackOverflow不是设计、编码、研究或教程服务。谢谢@gobob!瓶颈可能不在于预测速度。我更担心通过HTTP发送照片的速度。因此,关于后端与前端,在实践中,我们必须构建两种类型的系统并进行测试以进行比较?我在前面的问题中看到了关于http速度的评论。http速度是非常容易理解的。如果你在谷歌上搜索“图像大小”、“带宽”、“上传时间”或类似信息,你会发现一些不错的估计。在客户端CPU上进行图像分析通常是不可行的,因为它非常慢。