Artificial intelligence 有人能解释人工神经网络吗?
根据(我知道这是一个不好的来源)神经网络由Artificial intelligence 有人能解释人工神经网络吗?,artificial-intelligence,machine-learning,neural-network,Artificial Intelligence,Machine Learning,Neural Network,根据(我知道这是一个不好的来源)神经网络由 神经元的输入层 多个(B)隐藏层,每个层由C神经元组成 “D”神经元的输出层 我理解输入和输出层的含义 我的问题是如何确定最佳的层数和每层神经元数 增加“B”的优点/缺点是什么 增加“C”的优点/缺点是什么 增加“B”和“C”有什么区别 只是时间(处理能力的限制)还是让网络更深会限制结果的质量?我应该更关注深度(更多层)还是广度(每层更多神经元) 层/节点的数量取决于分类任务和您对NN的期望。理论上,如果你有一个线性可分离的函数/决策(例如布尔
- 神经元的输入层
- 多个(B)隐藏层,每个层由C神经元组成
- “D”神经元的输出层
- 增加“B”的优点/缺点是什么
- 增加“C”的优点/缺点是什么
- 增加“B”和“C”有什么区别
只是时间(处理能力的限制)还是让网络更深会限制结果的质量?我应该更关注深度(更多层)还是广度(每层更多神经元) 层/节点的数量取决于分类任务和您对NN的期望。理论上,如果你有一个线性可分离的函数/决策(例如布尔AND函数),1层(即只有输入层没有隐藏层)就可以形成一个超平面,就足够了。如果函数不是线性可分的(例如布尔异或),则需要隐藏层 使用1个隐藏层,可以形成任何可能无边界的凸面区域。具有有限映射的任何有界连续函数都可以表示。更多关于这个 另一方面,2个隐藏层能够表示任意复杂的决策边界。唯一的限制是节点的数量。在典型的2隐藏层网络中,第一层计算区域,第二层计算and运算(每个超立方体一个)。最后,输出层计算OR操作 根据,所有功能都可以通过两个隐藏层网络学习,并且您永远不需要超过两个隐藏层。然而,在实践中,1-隐藏层几乎总是起作用 总之,对于线性可分函数,固定B=0,对于其他所有函数,固定B=1 至于C和B与C的关系,请看一看。它提供了一般信息,并提到了过盈、过盈 作者提出以下建议之一作为经验法则:
- 输入层的大小
- C=输入层大小的2/3,加上输出层大小
- C<输入层大小的两倍
维基百科上的监督学习文章(http://en.wikipedia.org/wiki/Supervised_learning)这将使您更深入地了解哪些因素对于任何有监督的学习系统(包括神经网络)来说都非常重要。本文讨论了输入空间的维数、训练数据量、噪声等。这个空间可能重复吗@蒂姆:它没有谈到层的“宽度”以及深度/宽度的优点/缺点。实际上,公认的答案包括多少隐藏层(深度)和多少隐藏单位(宽度)我应该使用多少隐藏层/隐藏神经元?->我真的不明白为什么这个问题被关闭了。虽然主题线过于宽泛,但问题非常具体,任何人在开始实验nn时都会有这种感觉。这是我读过的,也是我读过的很多书中对过度拟合的最好解释。非常感谢。