Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/319.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python TensorFlow 1.x上用于优化的TFLiteConverter参数_Python_Tensorflow_Tensorflow2.0_Tensorflow Lite_Tensorflow2.x - Fatal编程技术网

Python TensorFlow 1.x上用于优化的TFLiteConverter参数

Python TensorFlow 1.x上用于优化的TFLiteConverter参数,python,tensorflow,tensorflow2.0,tensorflow-lite,tensorflow2.x,Python,Tensorflow,Tensorflow2.0,Tensorflow Lite,Tensorflow2.x,我一直在学习使用TFLiteConverter在TensorFlow 2.x上进行量化,但是我正在TensorFlow 1.13上实施一个项目,我想知道如何在这个版本上做同样的事情 例如,据我观察,以下命令也做同样的事情 # tf 1.x converter.post_training_quantize = True # tf 2.x converter.optimizations = [tf.lite.Optimize.OPTIMIZE_FOR_SIZE] 是这样吗?那么整数量化和量化感知

我一直在学习使用TFLiteConverter在TensorFlow 2.x上进行量化,但是我正在TensorFlow 1.13上实施一个项目,我想知道如何在这个版本上做同样的事情

例如,据我观察,以下命令也做同样的事情

# tf 1.x
converter.post_training_quantize = True

# tf 2.x
converter.optimizations = [tf.lite.Optimize.OPTIMIZE_FOR_SIZE]

是这样吗?那么整数量化量化感知训练如何实现呢?

AFAIK,以下两个是等价的

# tf 1.x
converter.post_training_quantize = True

# tf 2.x
converter.optimizations = [tf.lite.Optimize.DEFAULT]
converter.optimizations=[tf.lite.Optimize.Optimize\u FOR\u SIZE]
用于全整数量化

请注意,与量化感知训练(QAT)相比,训练后量化非常简单,但QAT提供了更高的模型精度。一般建议使用培训后量化。如果培训后量化的性能不符合您的要求,那么选择QAT

正如您可能已经知道的,可以进行多个级别的量化来优化大小和性能。以下指南涵盖了全整数量化和其他技术(浮点量化、浮点16量化等)

以下是遵循QAT指南的最佳资源