Neural network 神经网络:只是一些回归?

Neural network 神经网络:只是一些回归?,neural-network,Neural Network,我刚开始读关于神经网络的书。我认为它们是神奇的,非常聪明,但最终它似乎只是一个有许多“未定义”常量的大型数学函数?学习只是某种(或多或少“愚蠢”)回归的另一种方式?这是真的吗?对我来说,这似乎不是很精彩,所以我有点惊讶为什么它这么好用 非常感谢事实证明,只有一个隐层的人工神经网络是一个通用逼近器;也就是说,在适当的参数化下,它可以近似任何连续函数(参见)。更重要的是,正如上面提到的: 哈瓦·西格曼(Hava Siegelmann)和爱德华多·桑塔格(Eduardo D.Sontag)的工作证明了

我刚开始读关于神经网络的书。我认为它们是神奇的,非常聪明,但最终它似乎只是一个有许多“未定义”常量的大型数学函数?学习只是某种(或多或少“愚蠢”)回归的另一种方式?这是真的吗?对我来说,这似乎不是很精彩,所以我有点惊讶为什么它这么好用


非常感谢

事实证明,只有一个隐层的人工神经网络是一个通用逼近器;也就是说,在适当的参数化下,它可以近似任何连续函数(参见)。更重要的是,正如上面提到的:

哈瓦·西格曼(Hava Siegelmann)和爱德华多·桑塔格(Eduardo D.Sontag)的工作证明了具有有理值权重(与全精度实数值权重相反)的特定递归架构具有使用有限数量神经元和标准线性连接的通用图灵机的全部功能


这意味着,至少在理论上,神经网络和你昂贵的电脑一样聪明。这一点在不考虑所有现代扩展的情况下是正确的,例如在长-短记忆网络中。然而,正如其中一条评论所提到的,真正的问题是可学习性,即如何为正在考虑的任务找到正确的参数集。

之前我也这么认为,但现在我认为我们的大脑工作方式完全不同。这不是真正的回归,尤其是在现代网络中,它具有状态、记忆和,注意机制等。是的,60年前我们开始使用回归函数和基本空间划分,但这是一幅非常小的图。类似于大脑,它可以被简化为“这只是一束在神经元之间传递的电脉冲”,甚至更深层的“只是一些引起电位差异的化学反应”。有趣的是,“只是一个回归”很可能可以模拟一个完美的世界模拟器。问题是如何学习,这就是问题所在。谢谢:)这听起来很合理。好的论证:)!非常感谢。我不知道这个:)!