Machine learning 交叉熵损失对F分数的影响

Machine learning 交叉熵损失对F分数的影响,machine-learning,neural-network,caffe,loss-function,cross-entropy,Machine Learning,Neural Network,Caffe,Loss Function,Cross Entropy,我正在训练一个FCN(完全卷积网络),并使用“S形交叉熵”作为损失函数。 我的测量是F-measure和MAE。 列车/开发损失w.r.t迭代图如下所示: 尽管在#Iter=2200之后,Dev损耗略有增加,但我对Dev set的测量已经改进到接近#Iter=10000。我想知道机器学习有可能吗?如果F-measure得到了改进,那么损失是否也应该减少?你怎么解释呢 非常感谢您的回答。简短的回答,是的这是可能的 我将如何解释它是通过推理交叉熵损失以及它与度量的区别。一般来说,分类损失函数用于根据

我正在训练一个FCN(完全卷积网络),并使用“S形交叉熵”作为损失函数。 我的测量是F-measure和MAE。 列车/开发损失w.r.t迭代图如下所示: 尽管在#Iter=2200之后,Dev损耗略有增加,但我对Dev set的测量已经改进到接近#Iter=10000。我想知道机器学习有可能吗?如果F-measure得到了改进,那么损失是否也应该减少?你怎么解释呢


非常感谢您的回答。

简短的回答,是的这是可能的

我将如何解释它是通过推理交叉熵损失以及它与度量的区别。一般来说,分类损失函数用于根据概率(0.1/0.9)优化模型,而度量通常使用预测标签。(0/1)

  • 假设在模型概率假设中有很强的置信度(接近0或1),错误的预测将大大增加损失,并在F-度量中有小幅度的减少
  • 同样,在相反的情况下,置信度较低的模型(例如0.49/0.51)对损失函数的影响较小(从数值角度看),而对指标的影响较大
绘制预测的分布图将有助于证实这一假设