Machine learning 为什么我们必须在应用梯度下降之前反向传播误差?

Machine learning 为什么我们必须在应用梯度下降之前反向传播误差?,machine-learning,neural-network,backpropagation,Machine Learning,Neural Network,Backpropagation,当我看这些笔记时: 我对第四步感到困惑。当梯度下降法已经计算出误差时,我们为什么要单独计算误差呢。那么,我们不是要计算两次反向传播误差吗 谢谢错误不会计算两次。例如,在我的实现中,在步骤4中,我将对应于神经元的错误存储在与该神经元相关联的变量中。在步骤5中,我使用这个变量来计算梯度并更新权重 我的实现需要检查神经元两次,步骤4和步骤5。但似乎可以只回顾一次,将神经元的误差反向传播,并在同一循环迭代中计算梯度。在更新权重之前要小心反向传播错误,因为旧权重用于计算前一层神经元的错误。我真的很想知道

当我看这些笔记时:

我对第四步感到困惑。当梯度下降法已经计算出误差时,我们为什么要单独计算误差呢。那么,我们不是要计算两次反向传播误差吗


谢谢

错误不会计算两次。例如,在我的实现中,在步骤4中,我将对应于神经元的错误存储在与该神经元相关联的变量中。在步骤5中,我使用这个变量来计算梯度并更新权重


我的实现需要检查神经元两次,步骤4和步骤5。但似乎可以只回顾一次,将神经元的误差反向传播,并在同一循环迭代中计算梯度。在更新权重之前要小心反向传播错误,因为旧权重用于计算前一层神经元的错误。

我真的很想知道这些下行投票的原因我不是下行投票人,但是这看起来像Backprop是梯度计算的过程。反向传播是计算梯度的好方法,梯度下降使用这些梯度进行优化过程。你的反对票可能是因为这个误会。