Artificial intelligence 有人能解释人工神经网络吗?

Artificial intelligence 有人能解释人工神经网络吗?,artificial-intelligence,machine-learning,neural-network,Artificial Intelligence,Machine Learning,Neural Network,根据(我知道这是一个不好的来源)神经网络由 神经元的输入层 多个(B)隐藏层,每个层由C神经元组成 “D”神经元的输出层 我理解输入和输出层的含义 我的问题是如何确定最佳的层数和每层神经元数 增加“B”的优点/缺点是什么 增加“C”的优点/缺点是什么 增加“B”和“C”有什么区别 只是时间(处理能力的限制)还是让网络更深会限制结果的质量?我应该更关注深度(更多层)还是广度(每层更多神经元) 层/节点的数量取决于分类任务和您对NN的期望。理论上,如果你有一个线性可分离的函数/决策(例如布尔

根据(我知道这是一个不好的来源)神经网络由

  • 神经元的输入层

  • 多个(B)隐藏层,每个层由C神经元组成

  • “D”神经元的输出层

我理解输入和输出层的含义

我的问题是如何确定最佳的层数和每层神经元数

  • 增加“B”的优点/缺点是什么
  • 增加“C”的优点/缺点是什么
  • 增加“B”和“C”有什么区别

只是时间(处理能力的限制)还是让网络更深会限制结果的质量?我应该更关注深度(更多层)还是广度(每层更多神经元)

层/节点的数量取决于分类任务和您对NN的期望。理论上,如果你有一个线性可分离的函数/决策(例如布尔AND函数),1层(即只有输入层没有隐藏层)就可以形成一个超平面,就足够了。如果函数不是线性可分的(例如布尔异或),则需要隐藏层

使用1个隐藏层,可以形成任何可能无边界的凸面区域。具有有限映射的任何有界连续函数都可以表示。更多关于这个

另一方面,2个隐藏层能够表示任意复杂的决策边界。唯一的限制是节点的数量。在典型的2隐藏层网络中,第一层计算区域,第二层计算and运算(每个超立方体一个)。最后,输出层计算OR操作

根据,所有功能都可以通过两个隐藏层网络学习,并且您永远不需要超过两个隐藏层。然而,在实践中,1-隐藏层几乎总是起作用

总之,对于线性可分函数,固定B=0,对于其他所有函数,固定B=1

至于C和B与C的关系,请看一看。它提供了一般信息,并提到了过盈、过盈

作者提出以下建议之一作为经验法则:

  • 输入层的大小
  • C=输入层大小的2/3,加上输出层大小
  • C<输入层大小的两倍

答案1。一层将模拟大多数问题,或者最多可以使用两层

答案2。如果使用的神经元数量不足,网络将无法对复杂数据进行建模,结果拟合度将很差。如果使用过多的神经元,训练时间可能会过长,更糟糕的是,网络可能会过度拟合数据。当发生过拟合时,网络将开始对数据中的随机噪声进行建模。结果表明,该模型非常适合训练数据,但对新的、看不见的数据的泛化能力较差。必须使用验证来对此进行测试

美元什么是过度装修

在统计学中,当统计模型描述随机误差或噪声而不是基本关系时,就会发生过度拟合。过度拟合通常发生在模型过于复杂的情况下,例如相对于观测数量的参数太多。过度拟合的模型通常具有较差的预测性能,因为它会夸大数据中的微小波动。 过拟合的概念在机器学习中很重要。通常使用一组训练示例来训练学习算法,即已知期望输出的示例情况。假设学习者达到一种状态,在这种状态下,它还能够预测其他示例的正确输出,从而将其推广到培训期间未出现的情况(基于其归纳偏见)。然而,特别是在学习时间过长或训练示例很少的情况下,学习者可能会适应训练数据的非常特定的随机特征,这些特征与目标函数没有因果关系。在这个过度拟合的过程中,在训练示例上的性能仍然会提高,而在看不见的数据上的性能会变得更差

答案3。阅读答案1和2


维基百科上的监督学习文章(http://en.wikipedia.org/wiki/Supervised_learning)这将使您更深入地了解哪些因素对于任何有监督的学习系统(包括神经网络)来说都非常重要。本文讨论了输入空间的维数、训练数据量、噪声等。

这个空间可能重复吗@蒂姆:它没有谈到层的“宽度”以及深度/宽度的优点/缺点。实际上,公认的答案包括多少隐藏层(深度)和多少隐藏单位(宽度)我应该使用多少隐藏层/隐藏神经元?->我真的不明白为什么这个问题被关闭了。虽然主题线过于宽泛,但问题非常具体,任何人在开始实验nn时都会有这种感觉。这是我读过的,也是我读过的很多书中对过度拟合的最好解释。非常感谢。