Machine learning 为什么使用受限玻尔兹曼机器而不是多层感知器?

Machine learning 为什么使用受限玻尔兹曼机器而不是多层感知器?,machine-learning,neural-network,classification,Machine Learning,Neural Network,Classification,我试图理解受限玻尔兹曼机器(RBM)和前馈神经网络(NN)之间的区别。我知道RBM是一种生成模型,其思想是重构输入,而NN是一种判别模型,其思想是预测标签。但我不清楚的是,为什么不能将NN用于生成模型?特别是,我想到的是深层信念网络和多层感知机 假设我对NN的输入是一组称为x的注释,我对NN的输出是一组节点y。在一个判别模型中,我在训练期间的损失是y和我希望x产生的y值之间的差值(例如,类标签的基本真实概率)。但是,如果我只是让输出的节点数与输入的节点数相同,然后将损耗设置为x和y之间的差值,会

我试图理解受限玻尔兹曼机器(RBM)和前馈神经网络(NN)之间的区别。我知道RBM是一种生成模型,其思想是重构输入,而NN是一种判别模型,其思想是预测标签。但我不清楚的是,为什么不能将NN用于生成模型?特别是,我想到的是深层信念网络和多层感知机

假设我对NN的输入是一组称为x的注释,我对NN的输出是一组节点y。在一个判别模型中,我在训练期间的损失是y和我希望x产生的y值之间的差值(例如,类标签的基本真实概率)。但是,如果我只是让输出的节点数与输入的节点数相同,然后将损耗设置为x和y之间的差值,会怎么样?这样,网络将学会重构输入,就像在RBM中一样

那么,既然NN(或多层感知器)可以用这种方式来训练生成模型,为什么要用RBM(或深层信念网络)来代替呢?或者在这种情况下,它们会完全相同吗?

您可以完全按照您描述的方式将NN用于生成模型。这被称为an,它们可以很好地工作。事实上,这些往往是深层信念网络的基石

RBM是一种与前馈神经网络截然不同的模型。它们具有双向连接(向前和向后),具有概率/能量解释。您需要阅读详细信息才能理解

深度信念网络(DBN)就是一个多层神经网络。这可能是一个大型NN,其层由一种自动编码器组成,或由堆叠RBM组成。你需要特殊的方法、技巧和大量的数据来训练这些深度和大型网络。简单的反向传播会遇到这个问题。但如果你真的设法训练他们,他们可能会非常强大(编码“更高级别”的概念)


希望这有助于为您指明正确的方向。

谢谢。因此,在自动编码器与RBM的情况下,是否有任何直觉表明RBM似乎更有效?DBN中没有“通过时间的BP”这样的东西。BPTT用于循环网络,而不是“任何”深度网络architecture@Karnivaurus:我没有足够的经验(自动编码器vs RBM)来建议何时使用,对不起。@lejlot:谢谢,我的意思是“反向传播”。修好了。