Tensorflow mobilenet V1的培训后量化不起作用
我正在尝试将mobilenet V1.pb文件转换为量化的tflite文件。我使用以下命令进行量化:Tensorflow mobilenet V1的培训后量化不起作用,tensorflow,quantization,uint8t,Tensorflow,Quantization,Uint8t,我正在尝试将mobilenet V1.pb文件转换为量化的tflite文件。我使用以下命令进行量化: tflite_convert \ --output_file=/home/wc/users/Mostafiz/TPU/models/mobilnet/test2_4thSep/mobilenetv1_test5.tflite \ --graph_def_file=/home/wc/users/Mostafiz/TPU/models/mobilnet/mobileNet_frozen_
tflite_convert \
--output_file=/home/wc/users/Mostafiz/TPU/models/mobilnet/test2_4thSep/mobilenetv1_test5.tflite \
--graph_def_file=/home/wc/users/Mostafiz/TPU/models/mobilnet/mobileNet_frozen_graph.pb \
--output_format=TFLITE \
--inference_type=QUANTIZED_UINT8 \
--inference_input_type=QUANTIZED_UINT8 \
--input_shape=1,224,224,3 \
--input_array=input \
--output_array=MobilenetV1/Predictions/Reshape_1 \
--inference_output_type=QUANTIZED_UINT8 \
--default_ranges_min=0 \
--default_ranges_max=6 \
--std_dev_values=127 \
--mean_value=128
.tflile文件创建时没有任何错误。但是当我试图使用.tflile进行推理时,输出类就乱七八糟了。没有一个测试图像给出正确的结果
不知道我哪里做错了,有人能帮帮我吗
对于推断,我使用tensorflow提供的“label_image.py”。代码如下:
"""label_image for tflite"""
from __future__ import absolute_import
from __future__ import division
from __future__ import print_function
import argparse
import numpy as np
from PIL import Image
from tensorflow.lite.python import interpreter as interpreter_wrapper
def load_labels(filename):
my_labels = []
input_file = open(filename, 'r')
for l in input_file:
my_labels.append(l.strip())
return my_labels
if __name__ == "__main__":
floating_model = False
parser = argparse.ArgumentParser()
parser.add_argument("-i", "--image", default="/tmp/grace_hopper.bmp", \
help="image to be classified")
parser.add_argument("-m", "--model_file", \
default="/tmp/mobilenet_v1_1.0_224_quant.tflite", \
help=".tflite model to be executed")
parser.add_argument("-l", "--label_file", default="/tmp/labels.txt", \
help="name of file containing labels")
parser.add_argument("--input_mean", default=127.5, help="input_mean")
parser.add_argument("--input_std", default=127.5, \
help="input standard deviation")
args = parser.parse_args()
interpreter = interpreter_wrapper.Interpreter(model_path=args.model_file)
interpreter.allocate_tensors()
input_details = interpreter.get_input_details()
output_details = interpreter.get_output_details()
# check the type of the input tensor
if input_details[0]['dtype'] == np.float32:
floating_model = True
# NxHxWxC, H:1, W:2
height = input_details[0]['shape'][1]
width = input_details[0]['shape'][2]
img = Image.open(args.image)
img = img.resize((width, height))
# add N dim
input_data = np.expand_dims(img, axis=0)
if floating_model:
input_data = (np.float32(input_data) - args.input_mean) / args.input_std
interpreter.set_tensor(input_details[0]['index'], input_data)
interpreter.invoke()
output_data = interpreter.get_tensor(output_details[0]['index'])
results = np.squeeze(output_data)
top_k = results.argsort()[-5:][::-1]
labels = load_labels(args.label_file)
for i in top_k:
if floating_model:
print('{0:08.6f}'.format(float(results[i]))+":", labels[i])
else:
print('{0:08.6f}'.format(float(results[i]/255.0))+":", labels[i])
谢谢。虚拟量化可能无法正常工作,因为我们需要猜测激活函数的默认最大值和默认最小值 正如Sudarsh在评论中提到的,我们应该在训练后进行完整的整数量化,以将.pb转换为INT8 tflite文件 您可以按照此链接从以下内容开始: 希望这有帮助
注意。当模型没有量化时,结果是否令人满意?@Shubham是的,.pb文件给出了完美的结果,事实上,如果我将其转换为tflite而不进行量化,它就会工作。量化有助于减少模型的大小,但其精度会受到影响。是的,我同意,但这并不意味着精度将为0%,我的测试图像都没有给出正确答案,所以出现了一些问题。不确定你在这里尝试了什么: