Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/opencv/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
使用TensorFlow Lite、Caffe2或OpenCV部署cnn模型时,哪个速度更快?_Opencv_Tensorflow_Caffe_Tensorflow Lite_Caffe2 - Fatal编程技术网

使用TensorFlow Lite、Caffe2或OpenCV部署cnn模型时,哪个速度更快?

使用TensorFlow Lite、Caffe2或OpenCV部署cnn模型时,哪个速度更快?,opencv,tensorflow,caffe,tensorflow-lite,caffe2,Opencv,Tensorflow,Caffe,Tensorflow Lite,Caffe2,我们可以通过TensorFlow Lite、Caffe2或OpenCV在智能手机上部署MobileNet,我认为Caffe2将以更高的fps提供最佳性能。但是为什么呢?它们之间的性能差距是否如此之大?谢谢。每个框架都引入了自己的优化,对于不同的设备,结果可能会明显不同。您可能应该选择TensorFlow Lite。最后我看了看,Caffe2几乎没有智能手机GPU支持,而TFLite现在支持iOS和许多Android设备(所有的设备都有OpenGLES>=3.1)。使用GPU通常会使速度提高几倍,

我们可以通过TensorFlow Lite、Caffe2或OpenCV在智能手机上部署MobileNet,我认为Caffe2将以更高的fps提供最佳性能。但是为什么呢?它们之间的性能差距是否如此之大?谢谢。

每个框架都引入了自己的优化,对于不同的设备,结果可能会明显不同。

您可能应该选择TensorFlow Lite。最后我看了看,Caffe2几乎没有智能手机GPU支持,而TFLite现在支持iOS和许多Android设备(所有的设备都有OpenGLES>=3.1)。使用GPU通常会使速度提高几倍,使用TFLite可以将推理精度降低到半浮点(FP16),从而获得更高的速度,并且不会对性能造成太大的影响

当您无法使用移动GPU时,您可能会希望将网络量化为int8,这在TensorFlow和TensorFlow Lite中很容易实现,无论是在培训期间还是培训之后。Caffe2似乎需要QNNPACK进行量化,据称量化速度快了2倍。问题是它只适用于他们发布的两个预先训练好的模型(),所以您不能转换自己的模型

所以我真的想不出为什么要在TFLite上使用Caffe2


我不确定OpenCV的DNN模块,但我严重怀疑它是否支持移动GPU。有一点可能是量化的。

谢谢,你的回答很有用。