Deep learning VGG16迁移学习

Deep learning VGG16迁移学习,deep-learning,Deep Learning,当我尝试实现迁移学习来训练我的ConvNet模型时,在这个Keras博客(goo.gl/N60H13)中有一段代码我不理解。VGG16总共有21层,但为了冻结除最终FC之外的所有其他层,我需要冻结的层数为20。有人知道为什么博客会变成24([:25])吗 守则: for layer in model.layers[:25]: layer.trainable = False 也许这和Kera的框架有关 由此可知,Keras的VGG16模型是通过直接转换Caffe模型获得的。。通过仔细检查

当我尝试实现迁移学习来训练我的ConvNet模型时,在这个Keras博客(goo.gl/N60H13)中有一段代码我不理解。VGG16总共有21层,但为了冻结除最终FC之外的所有其他层,我需要冻结的层数为20。有人知道为什么博客会变成24([:25])吗

守则:

for layer in model.layers[:25]:
    layer.trainable = False

也许这和Kera的框架有关

由此可知,Keras的
VGG16模型是通过直接转换Caffe模型获得的。
。通过仔细检查,它确实包含了那个些
零填充层

对于Kera's的当前版本,可能应该是

for layer in model.layers[:15]:
    layer.trainable = False
layer.trainable=False用于机器学习内部的迁移学习概念。为了做到这一点,我们冻结24层并保持输出层不冻结,这样我们就可以在上面训练我们自己的网络

简单地说,最后一层是输出层。我们不想冻结它