Tensorflow 生产中的深度学习模式,后端还是前端?
我最近建立了一个网站,用户可以上传照片,然后会有一个POST请求发送到后端,以进一步预测照片。目前,web的用例是。。。有人打开手机浏览器,用手机拍照并上传。因此,基本上网络是在手机的浏览器上运行的,而不是在计算机上 后端:keras+flask+gunicorn+nginx托管在GPU驱动的机器上1080 Ti*2 我的问题是。。就速度而言,这是一个好的架构吗? 我听说有人说POST请求会很慢,因为通过http发送照片很慢 我想知道使用Tensorflow.js在客户端加载模型是否是一个更好的选择?它看起来很棒,因为不需要将照片发布到后端,但这也意味着我的GPU不会被使用? 我在网上搜索过,但找不到任何参考或比较Tensorflow 生产中的深度学习模式,后端还是前端?,tensorflow,architecture,deep-learning,production,Tensorflow,Architecture,Deep Learning,Production,我最近建立了一个网站,用户可以上传照片,然后会有一个POST请求发送到后端,以进一步预测照片。目前,web的用例是。。。有人打开手机浏览器,用手机拍照并上传。因此,基本上网络是在手机的浏览器上运行的,而不是在计算机上 后端:keras+flask+gunicorn+nginx托管在GPU驱动的机器上1080 Ti*2 我的问题是。。就速度而言,这是一个好的架构吗? 我听说有人说POST请求会很慢,因为通过http发送照片很慢 我想知道使用Tensorflow.js在客户端加载模型是否是一个更好的
谢谢大家!有很多变量需要考虑。关键是您希望每分钟服务多少用户请求。系统中的瓶颈将是您所称的“预测”。预测速度取决于许多因素,例如图像分辨率和算法复杂度。你应该做一些简单的测试。为你想做的预测类型建立一个算法,例如分类、检测、分割等。有一些库存算法可以平衡速度和性能。它会让你感觉到什么是可能的。从内存来看,在一台1080ti gpu机器上,ssd检测算法只需不到1秒的时间,对于高分辨率图像,甚至可能需要0.2秒。构建系统图,识别关键风险,并针对已识别的风险执行测试 欢迎来到StackOverflow。请按照您创建此帐户时的建议,阅读并遵循帮助文档中的发布指南,在这里申请。StackOverflow不是设计、编码、研究或教程服务。谢谢@gobob!瓶颈可能不在于预测速度。我更担心通过HTTP发送照片的速度。因此,关于后端与前端,在实践中,我们必须构建两种类型的系统并进行测试以进行比较?我在前面的问题中看到了关于http速度的评论。http速度是非常容易理解的。如果你在谷歌上搜索“图像大小”、“带宽”、“上传时间”或类似信息,你会发现一些不错的估计。在客户端CPU上进行图像分析通常是不可行的,因为它非常慢。