Python 对象检测api是否可以混合精度使用,或者在构建模型之前是否可以观察/修改模型的层?
是否有一种简单的方法可以转换model_main_tf2.py,以便在对象检测api中为迁移学习启用混合精度 我查看了源代码,即使在翻阅了10个不同的文件之后,我仍然无法找到模型的各个层 我想上次我检查时我决定Python 对象检测api是否可以混合精度使用,或者在构建模型之前是否可以观察/修改模型的层?,python,tensorflow,deep-learning,object-detection-api,Python,Tensorflow,Deep Learning,Object Detection Api,是否有一种简单的方法可以转换model_main_tf2.py,以便在对象检测api中为迁移学习启用混合精度 我查看了源代码,即使在翻阅了10个不同的文件之后,我仍然无法找到模型的各个层 我想上次我检查时我决定 detection_model = MODEL_BUILD_UTIL_MAP['detection_model_fn_base']( model_config=model_config, is_training=True) 在model_lib_v2.py中的第530行,该行用作mod
detection_model = MODEL_BUILD_UTIL_MAP['detection_model_fn_base'](
model_config=model_config, is_training=True)
在model_lib_v2.py中的第530行,该行用作model_main_tf2.py中的内部函数,用于构建创建的模型
有没有一种简单的方法将此模型转换为混合精度?或者看看我正在构建的层次
这是model_main_tf2.py,我的分发方法使用第103行
您可以尝试一些关于混合精度训练的介绍。我不确定图层是否可以修改,但您可以尝试查看保存在权重中的值