Neural network 前馈神经网络(ANN)和递归神经网络(RNN)之间的区别是什么

Neural network 前馈神经网络(ANN)和递归神经网络(RNN)之间的区别是什么,neural-network,recurrent-neural-network,Neural Network,Recurrent Neural Network,在ANN中,正向传播期间的方程为Y=W.X+b RNN正向传播期间的方程是什么,因为它涉及状态和时间步 在反向传播方面,ANN和RNN之间有什么区别 另外,ANN中的辍学与RNN中的经常性辍学在功能上有什么区别 ANN和RNN之间是否存在任何其他关键差异考虑到两个时间步,RNN正向传播的方程式以简单形式如下所示: 第一时间步的输出:Y0=(Wx*X0)+b) 第二时间步的输出:Y1=(Wx*X1)+Y0*Wy+b其中Y0=(Wx*X0)+b) 详细说明,考虑 RNN有5个神经元/单元< /代码>

在ANN中,正向传播期间的方程为
Y=W.X+b

RNN正向传播期间的方程是什么,因为它涉及
状态
时间步

在反向传播方面,
ANN
RNN
之间有什么区别

另外,ANN中的
辍学
与RNN中的
经常性辍学
在功能上有什么区别


ANN
RNN
之间是否存在任何其他关键差异考虑到
两个时间步
,RNN正向传播的方程式以简单形式如下所示:

第一时间步的输出
Y0=(Wx*X0)+b)

第二时间步的输出
Y1=(Wx*X1)+Y0*Wy+b
其中
Y0=(Wx*X0)+b)

详细说明,考虑<代码> RNN有5个<代码>神经元/单元< /代码>,下面的截图中提到了更详细的等式:

RNN中的反向传播

  • RNN中的反向传播是通过每个时间步完成的。因此,它被称为时间反向传播(BPTT)
  • 使用
    cost
    函数
    C(y(t(min)),y(t(min+1)),…y(t(max))
    (其中
    tmin
    tmax
    是第一个和最后一个输出时间步,不计算忽略的输出),并且该代价函数的梯度通过展开的网络向后传播
  • 最后,使用BPTT期间计算的梯度更新模型参数
  • 请注意,梯度向后流经成本函数使用的所有输出,而不仅仅是最终输出
在下面的屏幕截图中,虚线表示
正向传播
,实线表示
反向传播

辍学:如果我们将
辍学
的值设置为
0.1
循环层
(LSTM),这意味着它将只将90%的输入传递到循环层

<> >强递归下拉<强>如果在<代码>递归层< /代码>(LSTM)中设置<代码>递归辍学< /代码>作为<代码> 0.2代码>代码,则意味着它只考虑递归层

的80%的时间步长。
希望这能回答你所有的疑问

考虑到
两个时间步
,RNN正向传播的方程式以简单形式如下所示:

第一时间步的输出
Y0=(Wx*X0)+b)

第二时间步的输出
Y1=(Wx*X1)+Y0*Wy+b
其中
Y0=(Wx*X0)+b)

详细说明,考虑<代码> RNN有5个<代码>神经元/单元< /代码>,下面的截图中提到了更详细的等式:

RNN中的反向传播

  • RNN中的反向传播是通过每个时间步完成的。因此,它被称为时间反向传播(BPTT)
  • 使用
    cost
    函数
    C(y(t(min)),y(t(min+1)),…y(t(max))
    (其中
    tmin
    tmax
    是第一个和最后一个输出时间步,不计算忽略的输出),并且该代价函数的梯度通过展开的网络向后传播
  • 最后,使用BPTT期间计算的梯度更新模型参数
  • 请注意,梯度向后流经成本函数使用的所有输出,而不仅仅是最终输出
在下面的屏幕截图中,虚线表示
正向传播
,实线表示
反向传播

辍学:如果我们将
辍学
的值设置为
0.1
循环层
(LSTM),这意味着它将只将90%的输入传递到循环层

<> >强递归下拉<强>如果在<代码>递归层< /代码>(LSTM)中设置<代码>递归辍学< /代码>作为<代码> 0.2代码>代码,则意味着它只考虑递归层

的80%的时间步长。
希望这能回答你所有的疑问

这个问题似乎与编程无关。我认为,通过在正确的平台上提问,您将更成功地获得适当的答案,例如,在这里,问题似乎与编程无关。我认为,通过在正确的平台上提问,您将更成功地获得适当的回答,例如在