Machine learning 什么';这两种Keras方法在迁移学习中的区别是什么?

Machine learning 什么';这两种Keras方法在迁移学习中的区别是什么?,machine-learning,keras,transfer-learning,visual-recognition,Machine Learning,Keras,Transfer Learning,Visual Recognition,我见过两种不同的迁移学习/微调方法,我不确定它们的区别和好处: 我们只需加载模型,例如Inception,使用在例如Imagenet上训练生成的权重初始化,冻结conv层,并附加一些密集层,以适应所从事的特定分类任务。一些参考文献是: 这个过程似乎更复杂:通过VGG16模型运行一次训练/测试数据,并在两个numpy数组中记录完全连接层之前最后一个激活映射的输出。然后在存储的特征上训练一个完全连接的小型模型(权重存储为例如mini fc.h5)。在这一点上,if遵循类似于方法#1的程序,冻结VGG

我见过两种不同的迁移学习/微调方法,我不确定它们的区别和好处:

  • 我们只需加载模型,例如Inception,使用在例如Imagenet上训练生成的权重初始化,冻结conv层,并附加一些密集层,以适应所从事的特定分类任务。一些参考文献是:
  • 这个过程似乎更复杂:通过VGG16模型运行一次训练/测试数据,并在两个numpy数组中记录完全连接层之前最后一个激活映射的输出。然后在存储的特征上训练一个完全连接的小型模型(权重存储为例如
    mini fc.h5
    )。在这一点上,if遵循类似于方法#1的程序,冻结VGG16的第一个卷积层(使用imagenet的权重初始化),并仅训练最后一个conv层和完全连接的分类器(而是使用该方法先前训练部分的权重进行初始化,
    mini fc.h5
    )。然后对最终模型进行训练。该方法的最新版本可能会在本keras页面的一组新类的“微调接收v3”部分进行解释:
  • 这两种方法的区别/好处是什么?是转移学习与微调的不同例子吗?最后一个环节实际上只是方法2的修订版

    谢谢你的支持