Machine learning 卷积网络的训练方法仍然被称为深度学习吗?

Machine learning 卷积网络的训练方法仍然被称为深度学习吗?,machine-learning,artificial-intelligence,neural-network,convolution,deep-learning,Machine Learning,Artificial Intelligence,Neural Network,Convolution,Deep Learning,在像ImageNet这样的论文中,深度卷积分类 神经网络 训练方法似乎是随机梯度下降的基本反向传播 即使CNN是深层神经网络的一部分,这纯粹是因为存在大量隐藏层吗?这是否意味着这里的backprop属于深度学习的范畴,因为网络是深度的,即使它没有遵循与使用贪婪分层训练的DBN相同的模式,这是一种真正的深度学习技术 谢谢你的帮助和建议 据我所知 1个神经元和1层->称为感知器 2个或多个神经元,1层,1个输入-->作为线y=w*x+w0的等式 2个或多个神经元,1层,多个输入实例-->超平面 当

在像ImageNet这样的论文中,深度卷积分类 神经网络

训练方法似乎是随机梯度下降的基本反向传播

即使CNN是深层神经网络的一部分,这纯粹是因为存在大量隐藏层吗?这是否意味着这里的backprop属于深度学习的范畴,因为网络是深度的,即使它没有遵循与使用贪婪分层训练的DBN相同的模式,这是一种真正的深度学习技术


谢谢你的帮助和建议

据我所知

1个神经元和1层->称为感知器

2个或多个神经元,1层,1个输入-->作为线y=w*x+w0的等式

2个或多个神经元,1层,多个输入实例-->超平面

当您将乙状结肠功能添加到这些神经元激活的输出中,并将它们组合到另一个感知器或多个神经元中时,您将得到超平面的非线性组合

CNN之所以被称为CNN而不是简单的深层神经网络,是因为你可以学习图像任何部分的局部邻域权重。因此,神经元激活之间存在一个权重共享过程

  • 假设在一个图层中有N个不同的20x20灰度图像和5个隐藏单元
  • 如果要实现一个完全连接的深度神经网络,您可以尝试为第一个隐藏层学习400x5的权重矩阵(因此有2000个参数)。作为输出,每个N图像有5维向量
  • 但在cnn结构中,您可以在这些20x20图像中确定一个合理的面片大小,比如说4x4,然后学习5个不同的4x4权重,从而获得80个参数。作为第一个隐藏层的输出,每个N图像有5个不同的17x17图像。在另一种查看第一层输出的方式中,对于每N个图像是1445维向量。因此,这就像你学习较少的参数,但作为输出,你有更多的维度可以学习
所以当我看你的问题时

  • 如果只有一层,并且分类/回归是在这一层之后进行的,那么它就不会被称为DBN。但它仍然可以被称为CNN,因为有“卷积”和“神经网络”的概念。当然,如果只有一层,就不会有“反向传播”

  • 当存在超过1层时,需要反向传播。因为这个概念是能够在没有中间层的“真实/预期的输出”的情况下对某些错误进行反向引导。我们只有回归/分类的最后一层的基本事实。因此,如果我正确理解您的问题,这里的backprop属于深度网络类别

  • 我们不能说“CNN不遵循与DBN相同的模式”。因为它们肯定是具有权重共享功能的DBN

  • 我希望这能回答你的问题。此外,我认为在这里指出DBN和DNN之间的区别会很好

    从另一个网站引用()

    深度信念网络基于无监督数据构建信念(实例之间的概率关系),然后在有监督数据时将这些关系应用于问题

    基本上,在无监督的情况下学习,那里有更多的数据可供学习,然后在问题上使用


    深度神经网络是简单的大型多层神经网络。

    深度学习技术是人工智能的最新技术,在特定的卷积神经网络(CNN)中,它在模式识别、对象或人脸识别方面非常有效。许多库可用于CNN,如Itorch、theano、数字等
    为了深入理解神经网络和深度学习

    如果你阅读了维基百科的深度学习页面,它说:“深度学习是机器学习的一个分支,它基于一组算法,试图通过使用由多个非线性转换组成的具有复杂结构或其他结构的多个处理层对数据中的高层抽象进行建模”

    CNN具有多层非线性转换,因此符合深度学习模型

    这本书也是麻省理工学院的 CNN也是深度学习模式的一部分

    DBN和CNN之间存在一个重要的区别,第一个是无监督模型,另一个不是,另外一个使用DBN进行预初始化

    如果您阅读了RNN或LSTM这两种深度学习模型,您会发现它们基本上都是用一种改进的反向传播(backpropagation)进行训练的,称为时间反向传播(backpropagation through time)

    因此,请记住数据中模型高层抽象的多重非线性转换的概念


    此外,深度学习指的是模型而不是训练。

    这被称为深度学习,因为隐藏层的数量比它的祖先多。它们是成功的,因为人们找到了更多的方法来处理深度NN模型的梯度递减问题(ReLU、Dropout、Maxout、响应归一化…)。由于GPU的存在,它们是可行的。@Erogol你知道最近有什么总结文章描述了那些解决梯度递减问题的技术吗?