Machine learning 为什么对分割任务使用骰子系数而不是IOU?

Machine learning 为什么对分割任务使用骰子系数而不是IOU?,machine-learning,deep-learning,computer-vision,metrics,Machine Learning,Deep Learning,Computer Vision,Metrics,我见过有人使用IOU作为检测任务的度量标准,并使用骰子系数作为分割任务。这两个度量在等式方面看起来非常相似,除了骰子给相交部分两倍的权重。如果我是对的,那么 Dice: (2 x (A*B) / (A + B)) IOU : (A * B) / (A + B) 有什么特别的原因让我们更喜欢用骰子进行分割,用IOU进行检测吗?这不完全正确 骰子系数也称为Sørensen–骰子系数和F1分数定义为A和B相交面积的两倍,除以A和B的面积之和: Dice = 2 |A∩B| / (|A|+|B|)

我见过有人使用IOU作为检测任务的度量标准,并使用骰子系数作为分割任务。这两个度量在等式方面看起来非常相似,除了骰子给相交部分两倍的权重。如果我是对的,那么

Dice: (2 x (A*B) / (A + B))
IOU : (A * B) / (A + B) 

有什么特别的原因让我们更喜欢用骰子进行分割,用IOU进行检测吗?

这不完全正确

骰子系数也称为Sørensen–骰子系数和F1分数定义为A和B相交面积的两倍,除以A和B的面积之和:

Dice = 2 |A∩B| / (|A|+|B|) = 2 TP / (2 TP + FP + FN)
TP=真阳性,FP=假阳性,FN=假阴性

联合体上的IOU交叉点,也称为Jaccard索引,定义为交叉点面积除以联合体面积:

Jaccard = |A∩B| / |A∪B| = TP / (TP + FP + FN)
请注意,A和B的面积之和与A和B的并集的面积不同。特别是,如果有100%的重叠,则一个是另一个的两倍。这就是骰子系数中出现两次的原因:它们的定义都是,100%重叠时,值为1,0%重叠时,值为0


使用哪一种取决于每个领域的个人偏好和习惯。你看到一个在一个领域中被更多地使用,这与机会比其他任何东西都更相关。有人开始使用骰子系数进行分割,其他人也跟着做。有人开始使用借条进行检测,其他人也跟着来。

这并不完全正确

骰子系数也称为Sørensen–骰子系数和F1分数定义为A和B相交面积的两倍,除以A和B的面积之和:

Dice = 2 |A∩B| / (|A|+|B|) = 2 TP / (2 TP + FP + FN)
TP=真阳性,FP=假阳性,FN=假阴性

联合体上的IOU交叉点,也称为Jaccard索引,定义为交叉点面积除以联合体面积:

Jaccard = |A∩B| / |A∪B| = TP / (TP + FP + FN)
请注意,A和B的面积之和与A和B的并集的面积不同。特别是,如果有100%的重叠,则一个是另一个的两倍。这就是骰子系数中出现两次的原因:它们的定义都是,100%重叠时,值为1,0%重叠时,值为0

使用哪一种取决于每个领域的个人偏好和习惯。你看到一个在一个领域中被更多地使用,这与机会比其他任何东西都更相关。有人开始使用骰子系数进行分割,其他人也跟着做。有人开始使用IOU进行检测,其他人也跟着做。

在分段任务中,Dice Coeff Dice loss=1-Dice Coeff用作损失函数,因为它是可微的,而as IOU是不可微的

两者都可以用作评估模型性能的指标,但作为损失函数,仅在分段任务中使用Dice Coeff/loss

,Dice Coeff Dice loss=1-Dice Coeff用作损失函数,因为它在as IoU不可微的情况下是可微的


两者都可以用作评估模型性能的指标,但作为损失函数,仅使用Dice Coeff/loss

感谢您的澄清。如果有人有更多的观点要补充,我会再等一段时间,然后再接受回答谢谢你的澄清。如果有人有更多的观点要补充,我会再等一段时间,然后再接受答案。这个问题几乎离题了。这似乎不是一个编程问题,而是一个关于机器学习方法的问题。您可能应该将其发布在机器学习或统计的堆栈交换上。这个问题与主题无关。这似乎不是一个编程问题,而是一个关于机器学习方法的问题。您可能应该将其发布在stack exchange上,以便进行机器学习或统计。