Deep learning VGG16迁移学习
当我尝试实现迁移学习来训练我的ConvNet模型时,在这个Keras博客(goo.gl/N60H13)中有一段代码我不理解。VGG16总共有21层,但为了冻结除最终FC之外的所有其他层,我需要冻结的层数为20。有人知道为什么博客会变成24([:25])吗 守则:Deep learning VGG16迁移学习,deep-learning,Deep Learning,当我尝试实现迁移学习来训练我的ConvNet模型时,在这个Keras博客(goo.gl/N60H13)中有一段代码我不理解。VGG16总共有21层,但为了冻结除最终FC之外的所有其他层,我需要冻结的层数为20。有人知道为什么博客会变成24([:25])吗 守则: for layer in model.layers[:25]: layer.trainable = False 也许这和Kera的框架有关 由此可知,Keras的VGG16模型是通过直接转换Caffe模型获得的。。通过仔细检查
for layer in model.layers[:25]:
layer.trainable = False
也许这和Kera的框架有关 由此可知,Keras的
VGG16模型是通过直接转换Caffe模型获得的。
。通过仔细检查,它确实包含了那个些零填充层
对于Kera's的当前版本,可能应该是
for layer in model.layers[:15]:
layer.trainable = False
layer.trainable=False用于机器学习内部的迁移学习概念。为了做到这一点,我们冻结24层并保持输出层不冻结,这样我们就可以在上面训练我们自己的网络
简单地说,最后一层是输出层。我们不想冻结它