Neural network 反向传播法训练人工神经网络的误差函数

Neural network 反向传播法训练人工神经网络的误差函数,neural-network,backpropagation,Neural Network,Backpropagation,在各种各样的文学作品中,我经常看到参考文献 误差函数 但我不太清楚这是什么意思。我正在使用sigmoid函数进行激活。误差函数是否表示以下等式: 差速器=实际输出(1-实际输出) 错误=(预期输出实际输出)(差分) 或者是: 错误=预期输出实际输出 你的答案是什么 错误函数是您试图最小化的函数。上面列出的是一组误差函数,以及其中一些函数的导数。当最小函数被推导出来时,当Literature使用相同的术语时,可能会有点混淆。请记住,我们希望最小化网络中的错误,而帮助我们实现这一点的函数就是错误函数

在各种各样的文学作品中,我经常看到参考文献

误差函数

但我不太清楚这是什么意思。我正在使用sigmoid函数进行激活。误差函数是否表示以下等式:

差速器=实际输出(1-实际输出)

错误=(预期输出实际输出)(差分)

或者是:

错误=预期输出实际输出

你的答案是什么 错误函数是您试图最小化的函数。上面列出的是一组误差函数,以及其中一些函数的导数。当最小函数被推导出来时,当Literature使用相同的术语时,可能会有点混淆。请记住,我们希望最小化网络中的错误,而帮助我们实现这一点的函数就是错误函数



误差函数 最常见的误差函数是所有期望输出和实际输出之间差值的平方


输出层误差函数的导数

因此,我想澄清一下,我是否在后向传播算法中的前向传递中使用了sigmoid函数。我的错误函数是:
differential=actualOutput(1-actualOutput)
error=(预期输出actualOutput)(differential)
?谢谢。现在它更有意义了。你能再看看我的另一个问题吗?它源于这个问题。非常感谢。