Deep learning 如何在caffe中实现固定参数?

Deep learning 如何在caffe中实现固定参数?,deep-learning,caffe,pycaffe,Deep Learning,Caffe,Pycaffe,假设我想在pycaffe中手动更改网络中的参数,而不是由解算器自动更新。例如,假设我们想要惩罚密集激活,这可以作为一个额外的损失层来实现。在整个训练过程中,我们希望通过将损失乘以以预先指定的方式演变的系数来改变这种惩罚的强度。在咖啡馆做这件事的好方法是什么?是否可以在prototxt定义中指定这一点?在pycaffe接口中 更新:我想将lr\u mult和decay\u mult设置为0可能是一个解决方案,但看起来很笨拙。也许一个DummyDataLayer作为blob提供参数会是一个更好的选择

假设我想在pycaffe中手动更改网络中的参数,而不是由解算器自动更新。例如,假设我们想要惩罚密集激活,这可以作为一个额外的损失层来实现。在整个训练过程中,我们希望通过将损失乘以以预先指定的方式演变的系数来改变这种惩罚的强度。在咖啡馆做这件事的好方法是什么?是否可以在prototxt定义中指定这一点?在pycaffe接口中


更新:我想将
lr\u mult
decay\u mult
设置为0可能是一个解决方案,但看起来很笨拙。也许一个
DummyDataLayer
作为blob提供参数会是一个更好的选择。但是文档太少了,对于刚加入caffe的人来说,编写文档非常困难

也许这是一个微不足道的问题,但为了防止其他人感兴趣,我最终使用了一个成功的实现

在proto def层中,将
lr_mult
decay_mult
设置为0,这意味着我们不想学习或衰减参数。使用
filler
设置初始值。要在网络培训期间更改python中的参数,请使用以下语句
net.param['name'][index].data[…]=something

不清楚您想做什么。你能澄清你的问题吗?谢谢你指出这一点。我增加了一个例子