Machine learning 如何在训练更快的R-CNN时固定共享卷积层

Machine learning 如何在训练更快的R-CNN时固定共享卷积层,machine-learning,neural-network,deep-learning,caffe,pycaffe,Machine Learning,Neural Network,Deep Learning,Caffe,Pycaffe,我正在看报纸。在(第6页,第二列,第一段)中,说明卷积层是固定的(在第三和第四步的训练期间),并调整了RPN层和快速RCNN层 代码的哪一部分正在处理它 我查看了代码,Solver.cpp是控制向前/向后的。 我没有看到修复卷积层的实现 然后,所有prototxt文件都有类似的层实现 如何在训练中固定卷积层?在微调过程中冻结层时,通常会设置 param { lr_mult: 0 } 对于该层,这样caffe不会更新该层的权重。查看层的lr\u mult是的,我发现lr\u mult为0。谢谢

我正在看报纸。在(第6页,第二列,第一段)中,说明卷积层是固定的(在第三和第四步的训练期间),并调整了RPN层和快速RCNN层

代码的哪一部分正在处理它

我查看了代码,Solver.cpp是控制向前/向后的。 我没有看到修复卷积层的实现

然后,所有prototxt文件都有类似的层实现


如何在训练中固定卷积层?

在微调过程中冻结层时,通常会设置

param { lr_mult: 0 }

对于该层,这样caffe不会更新该层的权重。

查看层的
lr\u mult
是的,我发现lr\u mult为0。谢谢