Machine learning 使用错误分类数作为反向传播的目标函数

Machine learning 使用错误分类数作为反向传播的目标函数,machine-learning,classification,backpropagation,Machine Learning,Classification,Backpropagation,我是机器学习中性网络的新手,我有一个问题,请帮我解释一下。 在反向传播中,要最小化的目标函数通常是输出和目标之间的平方误差之和。然而,在分类问题中,目标通常是最小化错误分类的总数。为什么这个错误分类总数不能直接用作反向传播中的目标函数?因为数学的原因。我们真的希望尽量减少错误分类的数量,但这个目标是非均匀的,因此很难优化 所以,为了优化它,我们使用平滑代理:平方和以连续的方式惩罚你的错误。也就是说,输入参数的微小偏差会导致输出的微小变化。如果使用非连续的目标函数,则不会出现这种情况 另外,请注意

我是机器学习中性网络的新手,我有一个问题,请帮我解释一下。
在反向传播中,要最小化的目标函数通常是输出和目标之间的平方误差之和。然而,在分类问题中,目标通常是最小化错误分类的总数。为什么这个错误分类总数不能直接用作反向传播中的目标函数?

因为数学的原因。我们真的希望尽量减少错误分类的数量,但这个目标是非均匀的,因此很难优化

所以,为了优化它,我们使用平滑代理:平方和以连续的方式惩罚你的错误。也就是说,输入参数的微小偏差会导致输出的微小变化。如果使用非连续的目标函数,则不会出现这种情况


另外,请注意,要找到错误分类,您需要将输出与实际答案进行比较。因为不能使用==直接比较浮点数是否相等,所以需要容忍一些错误。而且,当答案的数量要大得多的时候,错过0.001的答案并不是什么大问题。因此,您希望尽可能将预测结果与真实答案推近,并通过最小化从预测到答案的总距离来实现这一点。

非常容易理解的答案,txs。我想补充一点:通过对目标函数平方误差和的梯度下降,我们可以调整权重向量,最终找到可接受的值。对于错误分类的数量,我认为我们不能这样做。