Neural network 如何通过复杂性惩罚理解“净保理”
在《神经网络简介》第53页第6.10.3章“网络修剪”中,Kevin Gurney。它将复杂度惩罚引入到反向传播训练算法中。复杂性惩罚如下所示: $$E\u c=\sum\u{i}w\u i$$Neural network 如何通过复杂性惩罚理解“净保理”,neural-network,Neural Network,在《神经网络简介》第53页第6.10.3章“网络修剪”中,Kevin Gurney。它将复杂度惩罚引入到反向传播训练算法中。复杂性惩罚如下所示: $$E\u c=\sum\u{i}w\u i$$ $$E=E\u t+\lambda E\u c$$ Et是迄今为止基于输入输出差异使用的错误。 然后在此总风险E上执行梯度下降 我的问题:在做推导之后。复杂性惩罚将消失。它如何影响训练E_c应该是每个w(L1)的绝对值之和。或平方和(L2)
$$E=E\u t+\lambda E\u c$$
Et
是迄今为止基于输入输出差异使用的错误。然后在此总风险E上执行梯度下降
我的问题:在做推导之后。复杂性惩罚将消失。它如何影响训练E_c应该是每个w(L1)的绝对值之和。或平方和(L2)