Python 如何减小我从keras转换的.tflite的大小

Python 如何减小我从keras转换的.tflite的大小,python,tensorflow,keras,Python,Tensorflow,Keras,我刚刚将google上创建的Keras model.h5(resnet50 img classify)转换为.tflite,但大小只是减少了0.5 MB 这适用于移动应用程序,其大小应进一步减小。它有90MB,对于生产来说太大了 OS平台和发行版=Linux-4.14.79+-x86_64-with-Ubuntu-18.04-bionic TensorFlow版本='1.14.0-rc1' CUDA/cuDNN版本=V10.0.130 GPU型号和内存=11441MB |特斯拉K80 from

我刚刚将google上创建的Keras model.h5(resnet50 img classify)转换为
.tflite
,但大小只是减少了
0.5 MB

这适用于移动应用程序,其大小应进一步减小。它有90MB,对于生产来说太大了

OS平台和发行版=Linux-4.14.79+-x86_64-with-Ubuntu-18.04-bionic

TensorFlow版本='1.14.0-rc1'

CUDA/cuDNN版本=V10.0.130

GPU型号和内存=11441MB |特斯拉K80

from tensorflow import lite
converter = lite.TFLiteConverter.from_keras_model_file( '/gdrive/My Drive/Places/model.h5')
tfmodel = converter.convert()
open ("model.tflite" , "wb") .write(tfmodel)
我预计随着firebase支持到40MB,其大小会减小?我哪里做错了,我该怎么办?我甚至使用Pytork并从.pth转换到.pb,但无法完成


也许您可以设置
converter.post_training\u quantize=True
以减小大小。标准TensorFlow Lite运行时不支持模型中的某些运算符。如果这些是本机TensorFlow运算符,则可以通过传递--enable_select_tf_ops来使用扩展运行时,或者通过设置target_ops=TFLITE_BUILTINS,在调用tf.lite.TFLiteConverter()时选择_tf_ops。否则,如果有自定义实现,则可以使用--allow_custom_ops禁用此错误,或者在调用tf.lite.TFLiteConverter()时设置allow_custom_ops=True。以下是需要自定义实现的运算符列表:FusedBatchNormav3。@Prabesh您成功地减小了模型的大小了吗?请看一看我自己的问题,和你的有点不同:)。非常感谢。