移动设备的Deeplab例外(tensorflow lite)

移动设备的Deeplab例外(tensorflow lite),tensorflow,image-segmentation,tensorflow-lite,deeplab,Tensorflow,Image Segmentation,Tensorflow Lite,Deeplab,我正在检查使用预先训练好的deeplab模型运行图像分割的选项 冻结的模型大小约为161MB,在我将其转换为tflite后,大小约为160MB,在我的PC cpu上运行此模型需要约25秒 这是“预期”还是我可以做得更好 到tflite的转换如下所示: tflite_convert \ --graph_def_file="deeplabv3_pascal_trainval/frozen_inference_graph.pb" \ --output_file="deeplab_xception_pa

我正在检查使用预先训练好的deeplab模型运行图像分割的选项

冻结的模型大小约为161MB,在我将其转换为tflite后,大小约为160MB,在我的PC cpu上运行此模型需要约25秒

这是“预期”还是我可以做得更好

到tflite的转换如下所示:

tflite_convert \
--graph_def_file="deeplabv3_pascal_trainval/frozen_inference_graph.pb" \
--output_file="deeplab_xception_pascal.tflite" \
--output_format=TFLITE \
--input_shape=1,513,513,3 \
--input_arrays="sub_7" \
--output_arrays="ArgMax" \
--inference_type=FLOAT \
--allow_custom_ops
谢谢

根据研究,带有3个评估量表的例外65_coco_voc_trainval大约需要223秒。冻结的图表只有一个评估刻度,所以25秒对我来说是正确的


为了加快TfLite的推理速度,我建议使用gpu委派,但当您在PC上运行时,您需要找到一个较小的模型。也许可以试试基于mobilenet的型号?edgetpu模型将在没有edgetpu的tflite中运行,速度应该相当快,尽管它们是在城市景观上训练的。

是的,我已经有基于mobilenet的模型在移动设备上工作。我想用“解码器”模块测试结果。因此,如果我正确理解该表,报告的异常时间为1个评估量表,输出步幅为16,是0.7秒?