Neural network 理解反向传播算法中的梯度 >Andrew Ng在CurSera的深入研究中,给出了如下的梯度: 这里,a[l]=gl

Neural network 理解反向传播算法中的梯度 >Andrew Ng在CurSera的深入研究中,给出了如下的梯度: 这里,a[l]=gl,neural-network,backpropagation,Neural Network,Backpropagation,我无法理解这里得到的梯度 如果: 然后: 但是幻灯片中给出的第1个公式不同,我做错了什么?请观看Andrew Ng在第3周“浅层神经网络”的反向传播直觉(可选)上的视频,了解反向传播导数 a[l] = g[l](z[l]), da[l] = ∂g[l](z[l])/∂z[l] * dz[l] => da[l] = g[l]'(z[l]) * dz[l]

我无法理解这里得到的梯度

如果:

然后:


但是幻灯片中给出的第1个公式不同,我做错了什么?

请观看Andrew Ng在第3周“浅层神经网络”的反向传播直觉(可选)上的视频,了解反向传播导数

a[l] = g[l](z[l]), 
da[l] = ∂g[l](z[l])/∂z[l] * dz[l]
=> da[l] = g[l]'(z[l]) * dz[l]