Tensorflow 量化感知训练太慢了

Tensorflow 量化感知训练太慢了,tensorflow,google-coral,Tensorflow,Google Coral,我正在尝试使用量化感知训练来训练模型,以便稍后我可以将其转换为用于edge tpu accelerator的quant.tflite。我使用了ssd\u mobilenet\u v1\u coco作为我的预训练模型,并下载了ssd\u mobilenet\u v1\u quantized\u coco的配置文件。当我删除此项时: graph_rewriter { quantization { delay: 48000 weight_bits: 8

我正在尝试使用量化感知训练来训练模型,以便稍后我可以将其转换为用于edge tpu accelerator的quant.tflite。我使用了
ssd\u mobilenet\u v1\u coco
作为我的预训练模型,并下载了
ssd\u mobilenet\u v1\u quantized\u coco
的配置文件。当我删除此项时:

graph_rewriter { 
    quantization {
        delay: 48000
        weight_bits: 8
        activation_bits: 8
    }
}

从配置文件中,模型的一个步骤需要0.2秒。使用这条量化线,一个步骤最多需要1.1秒。

您实际上在遵循哪些文档,以便我们可以获得更多的上下文?由于FakeQuantize需要更多的内部操作,量化感知训练预计会更慢。我没有找到合适的文档,所以我正在使用ssd_mobilenet_v1_quantized_coco的配置文件,因为它有量化部分。但它几乎慢了10倍?这很好还是我做错了什么?如果没有更多的背景,真的很难说,但据我所知,这将是缓慢的。我不认为你做错了什么!export\u expression\u graph.py和export\u tflite\u ssd\u graph.py之间有什么区别吗?我的意思是,两者都返回一个冻结的文件,但通过导出推理图导出的文件无法转换为tflite(可以,但我不知道如何转换)。如果您计划将图形转换为tflite模型,则可以使用导出\u tflite\u ssd\u图,如果您只计划使用.pb,则导出推理图就足够了:)