Deep learning 在神经网络中,误差在达到最小值后不会增加。你能澄清一下吗

Deep learning 在神经网络中,误差在达到最小值后不会增加。你能澄清一下吗,deep-learning,neural-network,gradient-descent,Deep Learning,Neural Network,Gradient Descent,在梯度下降中,我们调整权重以达到全局误差最小值。但是,梯度下降的超平面显示船状结构,这意味着在误差达到其最小值后,它再次增加,以创建船状结构。但是,在执行代码时,在特定的时间段之后,错误在达到其最小值后不会上升,而是保持不变。可以吗。澄清。这可能是由于学习率不断下降。当您找到最佳解决方案时,您的学习率已显著下降。在这一点上所做的任何新的改变都是无关紧要的,因此误差似乎没有增加。梯度下降的超平面可以可视化为抛物线,我们试图最小化一个函数,我们试图走向顶点,这是最低点,也是我们的目标。想象一个球在山

在梯度下降中,我们调整权重以达到全局误差最小值。但是,梯度下降的超平面显示船状结构,这意味着在误差达到其最小值后,它再次增加,以创建船状结构。但是,在执行代码时,在特定的时间段之后,错误在达到其最小值后不会上升,而是保持不变。可以吗。澄清。

这可能是由于学习率不断下降。当您找到最佳解决方案时,您的学习率已显著下降。在这一点上所做的任何新的改变都是无关紧要的,因此误差似乎没有增加。

梯度下降的超平面可以可视化为抛物线,我们试图最小化一个函数,我们试图走向顶点,这是最低点,也是我们的目标。想象一个球在山谷中滚动,不管发生什么,一段时间后球会停在山谷的中心,那里是最低的。这是梯度下降。即使球可以上升,它也没有能量。这直接转化为我们减少损失的步骤。

您确实需要研究基本的差异化才能理解为什么会发生这种情况。 但是,我会尽力解释的 简单地说,

假设 让我们假设,如果重量值达到0,成本将最小化

案例1: w=-5 假设其中一个权重值为-5。 现在,如果你区分成本和重量,你可能会得到一个负数。你用你得到的梯度减去之前的权重值-5-一些较小的负值将接近0,因此权重将缓慢达到函数的全局最小值

案例2: 现在,来回答你的问题。当权重值超过0时会发生什么情况。 比方说,现在权重的值是2。如果你取成本对重量的导数,这次你会得到一个正值。这是因为函数在微积分概念不同点的斜率。 因为,你用一些小的正数减去2,它会接近0。 所以,不管全局最小值的哪一边,权重都是。一旦将其区分并与之前的权重值相减,它将始终朝着最小值移动