使用TensorFlow Lite、Caffe2或OpenCV部署cnn模型时,哪个速度更快?
我们可以通过TensorFlow Lite、Caffe2或OpenCV在智能手机上部署MobileNet,我认为Caffe2将以更高的fps提供最佳性能。但是为什么呢?它们之间的性能差距是否如此之大?谢谢。每个框架都引入了自己的优化,对于不同的设备,结果可能会明显不同。您可能应该选择TensorFlow Lite。最后我看了看,Caffe2几乎没有智能手机GPU支持,而TFLite现在支持iOS和许多Android设备(所有的设备都有OpenGLES>=3.1)。使用GPU通常会使速度提高几倍,使用TFLite可以将推理精度降低到半浮点(FP16),从而获得更高的速度,并且不会对性能造成太大的影响 当您无法使用移动GPU时,您可能会希望将网络量化为int8,这在TensorFlow和TensorFlow Lite中很容易实现,无论是在培训期间还是培训之后。Caffe2似乎需要QNNPACK进行量化,据称量化速度快了2倍。问题是它只适用于他们发布的两个预先训练好的模型(),所以您不能转换自己的模型 所以我真的想不出为什么要在TFLite上使用Caffe2使用TensorFlow Lite、Caffe2或OpenCV部署cnn模型时,哪个速度更快?,opencv,tensorflow,caffe,tensorflow-lite,caffe2,Opencv,Tensorflow,Caffe,Tensorflow Lite,Caffe2,我们可以通过TensorFlow Lite、Caffe2或OpenCV在智能手机上部署MobileNet,我认为Caffe2将以更高的fps提供最佳性能。但是为什么呢?它们之间的性能差距是否如此之大?谢谢。每个框架都引入了自己的优化,对于不同的设备,结果可能会明显不同。您可能应该选择TensorFlow Lite。最后我看了看,Caffe2几乎没有智能手机GPU支持,而TFLite现在支持iOS和许多Android设备(所有的设备都有OpenGLES>=3.1)。使用GPU通常会使速度提高几倍,
我不确定OpenCV的DNN模块,但我严重怀疑它是否支持移动GPU。有一点可能是量化的。谢谢,你的回答很有用。