Computer vision 将InfoGainLoss用于类距离(输入值<;0),而不是相似性

Computer vision 将InfoGainLoss用于类距离(输入值<;0),而不是相似性,computer-vision,deep-learning,caffe,pycaffe,Computer Vision,Deep Learning,Caffe,Pycaffe,我尝试使用图层执行基于像素的多标签分割,有两个类彼此相对相似。为了现在能够区分它们,我想在infogain_矩阵中的相应位置引入负距离值而不是正相似值,这样像素的损失值与P(真类)成正比,与P(相似类)成反比,在理想情况下,在不同的类别之间进行更尖锐的区分 然而,在InfoGainLoss的当前实现中,infogain_mat中的负值不会导致我想要的行为,而是通过绝对值H(ln,k)*p(k)减少损失值。任何对InfoGainLoss有更多经验的人都可以证实这一点吗?如果可能,就如何实施我想要的

我尝试使用图层执行基于像素的多标签分割,有两个类彼此相对相似。为了现在能够区分它们,我想在infogain_矩阵中的相应位置引入负距离值而不是正相似值,这样像素的损失值与P(真类)成正比,与P(相似类)成反比,在理想情况下,在不同的类别之间进行更尖锐的区分

然而,在InfoGainLoss的当前实现中,infogain_mat中的负值不会导致我想要的行为,而是通过绝对值H(ln,k)*p(k)减少损失值。任何对InfoGainLoss有更多经验的人都可以证实这一点吗?如果可能,就如何实施我想要的行为提出建议


提前多谢

查看infogain-loss层的代码,我没有看到任何关于abs(H)的内容。你试过负值吗?好的,我试过负值,在我的数据集上,它们可以在初始训练完成后的第二步中用于微调网络,以增加相似类之间的间隔。然而,从头开始的训练我还没有做到,因为经常会有损失到-QINF,因为损失接近-QINF表示负H(ln,k)和小P(k)。查看infogain损失层的代码,我没有看到任何关于
abs(H)
。你试过负值吗?好的,我试过负值,在我的数据集上,它们可以在初始训练完成后的第二步中用于微调网络,以增加相似类之间的间隔。然而,从零开始的训练我还没有做到,因为经常会有-QINF的损失,因为损失接近-QINF表示负H(ln,k)和小P(k)。