Tensorflow 训练后量化后的故障加载模型

Tensorflow 训练后量化后的故障加载模型,tensorflow,tensorflow-lite,Tensorflow,Tensorflow Lite,我训练了一个模型并将其转换为.tflite模型。我已经完成了以下的列车后量化: import tensorflow as tf converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) converter.optimizations = [tf.lite.Optimize.OPTIMIZE_FOR_SIZE] tflite_quant_model = converter.convert() 但是,当我尝试在树莓上

我训练了一个模型并将其转换为.tflite模型。我已经完成了以下的列车后量化:

import tensorflow as tf
converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir)
converter.optimizations = [tf.lite.Optimize.OPTIMIZE_FOR_SIZE]
tflite_quant_model = converter.convert()
但是,当我尝试在树莓上使用该模型进行推理时,我得到了以下错误

Traceback (most recent call last):
File "tf_lite_test.py", line 8, in <module>
interpreter = tf.lite.Interpreter(model_path="converted_from_h5_model_with_quants.tflite")
File "/home/pi/.local/lib/python3.5/site-packages/tensorflow/lite/python/interpreter.py", line 46, in __init__
model_path))
ValueError: Didn't find op for builtin opcode 'CONV_2D' version '2'
Registration failed.
这是我的模型:

model = tf.keras.models.Sequential([
tf.keras.layers.Conv2D(32, (3,3), activation='relu', input_shape=(IMG_SHAPE, IMG_SHAPE, 3)),
tf.keras.layers.MaxPooling2D(2, 2),

tf.keras.layers.Conv2D(64, (3,3), activation='relu'),
tf.keras.layers.MaxPooling2D(2,2),

tf.keras.layers.Conv2D(128, (3,3), activation='relu'),
tf.keras.layers.MaxPooling2D(2,2),

tf.keras.layers.Dropout(0.5),
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(64, activation='relu'),
tf.keras.layers.Dense(3, activation='softmax')
])

如何应用训练后量化并加载模型而不产生此错误

也许您需要重建tflite运行时。它可能太旧了,不能使用这种型号。请参阅此处的说明:

您的设备上tensorflow的版本是什么?我相信
CONV_2D
version
2
支持跨步,尽管此处未使用跨步,但这是生成的tflite操作的格式。请尝试说服tflite生成
CONV_2D
version
1
,或者将其更新为支持该操作的较新版本。我大约一周前安装了tflite,此后是否有新版本?另外,如何检查tfite安装的版本?似乎没有tflite的.version?“您的设备上tensorflow的版本是什么?”我知道我的tf版本。它是1.13.1。我只是不知道如何检查tflite的版本。
model = tf.keras.models.Sequential([
tf.keras.layers.Conv2D(32, (3,3), activation='relu', input_shape=(IMG_SHAPE, IMG_SHAPE, 3)),
tf.keras.layers.MaxPooling2D(2, 2),

tf.keras.layers.Conv2D(64, (3,3), activation='relu'),
tf.keras.layers.MaxPooling2D(2,2),

tf.keras.layers.Conv2D(128, (3,3), activation='relu'),
tf.keras.layers.MaxPooling2D(2,2),

tf.keras.layers.Dropout(0.5),
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(64, activation='relu'),
tf.keras.layers.Dense(3, activation='softmax')
])