Neural network ANN绕过输入的隐藏层

Neural network ANN绕过输入的隐藏层,neural-network,xor,backpropagation,feed-forward,Neural Network,Xor,Backpropagation,Feed Forward,我刚刚被布置了一个任务,计算一些ANN输出并编写一个ANN。简单的东西,以前做过,所以我不需要任何帮助。然而,有一件事让我感到困惑。在作业中,拓扑结构如下(不会上传图表,因为这是他的知识产权):- 2层,3个隐藏和一个输出 输入x1转到2个隐藏节点和输出节点 输入x2转到2个隐藏节点 问题是非常常见的XOR。他以前没有提到过任何关于这种拓扑结构的东西,我肯定参加过每一次讲座,并且认真地听。我是这样的好学生:) 我不认为这算家庭作业,因为我手头的实际任务不需要帮助 任何关于为什么要使用这样一个

我刚刚被布置了一个任务,计算一些ANN输出并编写一个ANN。简单的东西,以前做过,所以我不需要任何帮助。然而,有一件事让我感到困惑。在作业中,拓扑结构如下(不会上传图表,因为这是他的知识产权):-

  • 2层,3个隐藏和一个输出
  • 输入x1转到2个隐藏节点和输出节点
  • 输入x2转到2个隐藏节点
问题是非常常见的XOR。他以前没有提到过任何关于这种拓扑结构的东西,我肯定参加过每一次讲座,并且认真地听。我是这样的好学生:)

我不认为这算家庭作业,因为我手头的实际任务不需要帮助

任何关于为什么要使用这样一个拓扑结构的网络的见解都是非常棒的

问候

神经网络看起来像上图吗?它看起来像一个普通的异或拓扑,有一个隐藏层和一个偏置神经元。偏置神经元基本上帮助您将激活函数的值向左或向右移动

有关偏向神经元作用的更多信息,请查看以下答案:

更新


我找到了一些关于这方面的文献。显然,输入可以跳过隐藏层,转到输出层。这称为跳跃层,用于在神经网络中对传统线性回归建模。《使用Sas Enterprise Miner进行神经网络建模》一书中描述了这一概念。从同一本书中,我们还对这个概念进行了更详细的介绍。

谢谢您的回答。不,当我说其中一个输入到输出节点(当然是加权的)时,我字面上指的是输入向量中的一个元素。所以在你的例子中,假设A和H1一起去输出节点,但不是H2,比如说。嗯,这是一个奇怪的拓扑结构;我以前没见过,但我对神经网络的经验水平还是业余水平。这是大学的神经网络入门课程。。。。。我也觉得很奇怪。啊,太棒了,这至少为它提供了一些解释,并且证实了它确实是可以做到的!我必须承认这很奇怪!