Computer vision 视网膜网焦点丢失

Computer vision 视网膜网焦点丢失,computer-vision,Computer Vision,有人能简单地解释一下视网膜内的焦点丢失是什么吗 从下面的2篇文章 用于目标检测的特征金字塔网络 密集目标检测的焦损焦损可定义为(注:原始论文描述了二元分类的焦损,但这里我将其扩展到多类情况): 其中K表示类的数量yi如果基本事实属于第i类,则等于1,否则等于0pi是第i类的预测概率γ∈(0,+∞)是聚焦参数;αi∈[0,1]是第i类的一个加权参数。损失类似于分类交叉熵,如果γ=0和αi=1,它们是等价的。那么,这两个附加参数的用途是什么 正如最初的论文所指出的,类别不平衡是一个非常有问题的问题

有人能简单地解释一下视网膜内的焦点丢失是什么吗 从下面的2篇文章 用于目标检测的特征金字塔网络
密集目标检测的焦损

焦损可定义为(注:原始论文描述了二元分类的焦损,但这里我将其扩展到多类情况):

其中
K
表示类的数量
yi
如果基本事实属于第i类,则等于1,否则等于0
pi
是第i类的预测概率<代码>γ∈(0,+∞)是聚焦参数;
αi∈[0,1]
是第i类的一个加权参数。损失类似于分类交叉熵,如果
γ=0
αi=1
,它们是等价的。那么,这两个附加参数的用途是什么

正如最初的论文所指出的,类别不平衡是一个非常有问题的问题,它限制了检测器在实际中的性能。这是因为图像中的大多数位置都是容易被否定的(这意味着它们可以很容易地被检测器归类为背景)并且没有提供有用的学习信号;更糟糕的是,由于它们占输入的很大一部分,它们可以压倒损耗和计算的梯度,并导致退化模型。为了解决这个问题,聚焦损耗引入聚焦参数
γ
,以减轻分配给易于分类示例的损耗。这随着
γ
值的增加,effect增加,使网络更加关注硬示例

平衡参数
α
也有助于解决类别不平衡问题。它可以通过反向类别频率(或作为超参数)进行设置,以便分配给背景类别示例的损失可以向下加权

请注意,由于这两个参数相互作用,因此它们应一起选择。一般来说,随着
γ
的增加,α应略微减小11


这是一篇更详细地解释视网膜网的帖子:

有人请帮忙有人请帮忙看这篇中间帖子:“基本真相”在这里是什么意思?这里是基本真相的定义,回复表明基本真相等同于“标签”。不过,我不确定这里的情况是否如此。