Neural network 在普通的反向传播算法中,交叉熵误差函数是如何工作的? 我在C++中使用前馈反向传播网络,但似乎不能使它正常工作。我所基于的网络是使用交叉熵误差函数。然而,我不是很熟悉它,即使我试图查找它,我仍然不确定。有时候看起来很容易,有时候很难。该网络将解决多项式分类问题,据我所知,交叉熵误差函数适用于这些情况。 知道它是如何工作的人?

Neural network 在普通的反向传播算法中,交叉熵误差函数是如何工作的? 我在C++中使用前馈反向传播网络,但似乎不能使它正常工作。我所基于的网络是使用交叉熵误差函数。然而,我不是很熟悉它,即使我试图查找它,我仍然不确定。有时候看起来很容易,有时候很难。该网络将解决多项式分类问题,据我所知,交叉熵误差函数适用于这些情况。 知道它是如何工作的人?,neural-network,backpropagation,Neural Network,Backpropagation,啊,是的,很好的ole反向传播。它的乐趣在于,使用什么样的错误函数并不重要(实现方面),只要它是可微的。一旦您知道如何计算每个输出单元的交叉熵(请参见),您只需对该函数进行偏导数,即可找到隐藏层的权重,然后再次计算输入层的权重 然而,如果你的问题不是关于实施,而是关于培训的困难,那么你的工作就要完成了。不同的误差函数擅长不同的事情(最好只是根据误差函数的定义进行推理),而这个问题又被其他参数(如学习率)所加剧 希望这有帮助,让我知道如果你需要任何其他信息;你的问题很模糊 我对神经网络不是很熟悉,

啊,是的,很好的ole反向传播。它的乐趣在于,使用什么样的错误函数并不重要(实现方面),只要它是可微的。一旦您知道如何计算每个输出单元的交叉熵(请参见),您只需对该函数进行偏导数,即可找到隐藏层的权重,然后再次计算输入层的权重

然而,如果你的问题不是关于实施,而是关于培训的困难,那么你的工作就要完成了。不同的误差函数擅长不同的事情(最好只是根据误差函数的定义进行推理),而这个问题又被其他参数(如学习率)所加剧


希望这有帮助,让我知道如果你需要任何其他信息;你的问题很模糊

我对神经网络不是很熟悉,但即便如此,你的问题听起来还是很模糊。你到底有什么问题?如果你能把问题缩小一点,你就更有可能得到一个有用的答案。好吧,基本上我只是不知道这个算法是什么样子的。或者,为了缩小范围,如何计算误差梯度,以及如何使用交叉熵误差函数反向传播误差?网络使用sigmoid激活功能。