Machine learning 迁移学习与元学习的差异

Machine learning 迁移学习与元学习的差异,machine-learning,artificial-intelligence,transfer-learning,Machine Learning,Artificial Intelligence,Transfer Learning,元学习和迁移学习之间有什么区别 我读了两篇关于和的文章 元学习是机器学习理论的一部分 将算法应用于有关案例的元数据,以改进 机器学习过程。元数据包括有关元数据的属性 使用的算法、学习任务本身等。使用元数据,可以 对选择的学习算法做出更好的决策,以解决问题 更有效地解决问题 及 迁移学习旨在改进学习新任务的过程 利用解决先前问题所获得的经验 有些相似。在实践中,大多数情况下,机器学习 模型设计用于完成单个任务。但是作为人类,, 我们利用过去的经验不仅仅是重复同样的事情 未来的任务,但也要学习全新的

元学习
迁移学习
之间有什么区别

我读了两篇关于和的文章

元学习是机器学习理论的一部分 将算法应用于有关案例的元数据,以改进 机器学习过程。元数据包括有关元数据的属性 使用的算法、学习任务本身等。使用元数据,可以 对选择的学习算法做出更好的决策,以解决问题 更有效地解决问题

迁移学习旨在改进学习新任务的过程 利用解决先前问题所获得的经验 有些相似。在实践中,大多数情况下,机器学习 模型设计用于完成单个任务。但是作为人类,, 我们利用过去的经验不仅仅是重复同样的事情 未来的任务,但也要学习全新的任务。也就是说,如果 我们试图解决的新问题与我们过去的一些问题相似 经验,对我们来说变得更容易。因此,为了使用 机器学习中的相同学习方法,转移学习 包括转移一个或多个来源的过去经验的方法 并利用它来促进相关目标任务的学习

这些比较仍然让我感到困惑,因为两者在可重用性方面似乎有很多相似之处。
Meta-learning
被称为“模型不可知论”,但它使用来自先前学习任务的元数据(超参数或权重)。这与转移学习相同,因为它可以部分重用经过训练的网络来解决相关任务。我知道还有很多事情要讨论,但从广义上讲,我看不出两者之间有多大区别


人们还使用诸如元迁移学习之类的术语,这使我认为这两种类型的学习彼此之间有着很强的联系。

我认为主要的区别在于,迁移学习期望任务基本上是相似的,但元学习并不如此


在迁移学习中,任何参数都可以传递到下一个任务,但元学习更具选择性,因为传递的参数应该编码如何学习,而不是如何解决以前的任务。

我认为主要区别在于迁移学习期望任务彼此基本相似,但元学习却没有


在迁移学习中,任何参数都可以传递到下一个任务,但元学习更具选择性,因为传递的参数应该编码如何学习,而不是如何解决以前的任务。

在迁移学习中,我们使用一个大数据集预先训练模型参数,然后使用这些参数作为初始参数来微调具有较小数据集的其他任务。这种经典的预培训方法不能保证学习以下初始化: 有利于微调。
在元学习中,我们学习一组初始参数,这些参数可以在另一个类似的任务中轻松调整,只需几个梯度步骤。它通过微调过程直接优化与此初始化相关的性能。

在转移学习中,我们使用大数据集预训练模型参数,然后使用这些参数作为初始参数,对具有较小数据集的其他任务进行微调。这种经典的预培训方法不能保证学习以下初始化: 有利于微调。
在元学习中,我们学习一组初始参数,这些参数可以在另一个类似的任务中轻松调整,只需几个梯度步骤。它通过微调过程直接优化了与此初始化相关的性能。

谢谢您的回答。根据这一点(第5页)
多任务学习
迁移学习
的一个子类。这些任务不一定彼此相似,但有一些共同点。我发现在这个主题中有很多容易混淆的术语,请参见谢谢你的回答。根据这一点(第5页)
多任务学习
迁移学习
的一个子类。这些任务不一定彼此相似,但有一些共同点。我发现在这个主题中有很多容易混淆的术语,请参见