Neural network 前馈神经网络的误差检测

Neural network 前馈神经网络的误差检测,neural-network,Neural Network,我的网络错误是否可能先减小,然后再增大?只是想检查一下我的编码是否正确。是的,错误可能会暂时增加。这是因为您没有一直测试一个输入和预期的输出(您不应该这样做,因为这样网络将专门针对特定的输入输出集)。神经网络并不含蓄地“知道”它正在朝正确的方向发展。您基本上是遍历错误表面,以找到错误低于某个阈值的位置。因此,在特定的时间段,错误肯定会增加,但总体而言,随着反向传播根据错误调整权重,错误率应该会降低 例如,假设您正在尝试创建一个可以识别数字的神经网络。因此,您输入“1”的净输入和预期输出。输出不匹

我的网络错误是否可能先减小,然后再增大?只是想检查一下我的编码是否正确。

是的,错误可能会暂时增加。这是因为您没有一直测试一个输入和预期的输出(您不应该这样做,因为这样网络将专门针对特定的输入输出集)。神经网络并不含蓄地“知道”它正在朝正确的方向发展。您基本上是遍历错误表面,以找到错误低于某个阈值的位置。因此,在特定的时间段,错误肯定会增加,但总体而言,随着反向传播根据错误调整权重,错误率应该会降低

例如,假设您正在尝试创建一个可以识别数字的神经网络。因此,您输入“1”的净输入和预期输出。输出不匹配,因此需要调整权重。因此,这意味着网络在识别“1”时会有较低的错误。但下一个输入可能是“4”,而“4”的误差可能更大,因此网络将再次自我调整。关键是为权重找到一种“快乐媒介”,这样它们就能识别输入,并在一定的误差阈值内提供适当的输出


然而,我不知道你所说的“减少,然后增加,直到最后一个时代”是什么意思。您只是在特定的时间段内进行培训,还是在您的网络达到某个错误阈值之前进行培训?

作为Vivin Paliath答案的补充,以下是典型培训的样子:

请注意,如果网络的学习率太高,则可能:


相关:

我终于找到了错误所在。是的,你是对的,随着程序在最后一个时代的发展,它会暂时增加然后减少。别介意我问题的后半部分。谢谢你的回答。