Deep learning tensorflow tensorrt转换器型号是savedmodel还是frozengrpah?
我使用trt.TrtGraphConverterV2优化了一个对象检测模型Deep learning tensorflow tensorrt转换器型号是savedmodel还是frozengrpah?,deep-learning,object-detection,inference,tensorflow1.15,tensorrt-python,Deep Learning,Object Detection,Inference,Tensorflow1.15,Tensorrt Python,我使用trt.TrtGraphConverterV2优化了一个对象检测模型 converter = trt.TrtGraphConverterV2( input_saved_model_dir=input_saved_model_dir, conversion_params=conversion_params ) converter.convert() 然后使用save方法来保存它。它使用一个保存的_model.pb文件创建了一个目录 convert
converter = trt.TrtGraphConverterV2(
input_saved_model_dir=input_saved_model_dir,
conversion_params=conversion_params
)
converter.convert()
然后使用save方法来保存它。它使用一个保存的_model.pb文件创建了一个目录
converter.save(output_saved_model_dir=output_saved_model_dir)
当我尝试使用加载输出模型时
model_loaded = tf.saved_model.load_v2(input_saved_model_dir, tags=[tag_constants.SERVING])
加载正在进行,没有任何问题,但我没有得到任何推断输出
如何加载模型以获取值。这可能会有所帮助