Machine learning 什么样的交叉熵或负对数似然足以停止训练?
我使用代价函数作为交叉熵或负对数似然函数来训练神经网络。在什么函数值下,我可以认为是停止训练的时候了,结果是好的吗?理论上,当你达到零时。实际上,当然,你永远不会达到零。在某些情况下,网络分类性能接近100%,而交叉熵远非零(因为概率几乎均匀分布在所有选择中,对于正确的类别,概率仅略高)。根据我个人的经验,交叉熵值甚至可能开始增加,而你的准确度仍在提高。所以你的答案没有价值 PS:根本原因是交叉熵是基础非凸0/1损失函数的凸近似。当你接近一个局部极小点时,这两个可能会表现不同Machine learning 什么样的交叉熵或负对数似然足以停止训练?,machine-learning,neural-network,Machine Learning,Neural Network,我使用代价函数作为交叉熵或负对数似然函数来训练神经网络。在什么函数值下,我可以认为是停止训练的时候了,结果是好的吗?理论上,当你达到零时。实际上,当然,你永远不会达到零。在某些情况下,网络分类性能接近100%,而交叉熵远非零(因为概率几乎均匀分布在所有选择中,对于正确的类别,概率仅略高)。根据我个人的经验,交叉熵值甚至可能开始增加,而你的准确度仍在提高。所以你的答案没有价值 PS:根本原因是交叉熵是基础非凸0/1损失函数的凸近似。当你接近一个局部极小点时,这两个可能会表现不同