Tensorflow SSD对象检测中的定位框和偏移

Tensorflow SSD对象检测中的定位框和偏移,tensorflow,keras,deep-learning,object-detection,pytorch,Tensorflow,Keras,Deep Learning,Object Detection,Pytorch,如何计算SSD中对象检测的定位框偏移?据我所知,锚定框是8x8功能图、4x4功能图或输出层中任何其他功能图中的框 那么补偿是什么呢 是指边界框中心与4x4特征地图中特定框中心之间的距离吗 如果我使用4x4特征图作为输出,那么我的输出应为以下尺寸: (4x4, n_classes + 4) 其中4表示锚箱坐标。 这4个坐标可能类似于: (xmin, xmax, ymin, ymax) 这将对应于边界框的左上角和右下角。 那么为什么我们需要偏移量,如果需要,我们如何计算它们 任何帮助都将不胜感激

如何计算SSD中对象检测的定位框偏移?据我所知,锚定框是8x8功能图、4x4功能图或输出层中任何其他功能图中的框

那么补偿是什么呢

是指边界框中心与4x4特征地图中特定框中心之间的距离吗

如果我使用4x4特征图作为输出,那么我的输出应为以下尺寸:

(4x4, n_classes + 4)
其中4表示锚箱坐标。 这4个坐标可能类似于:

(xmin, xmax, ymin, ymax)
这将对应于边界框的左上角和右下角。 那么为什么我们需要偏移量,如果需要,我们如何计算它们


任何帮助都将不胜感激

我们需要偏移量,因为这是我们在默认锚定框时计算的,对于每个要素地图单元的ssd,它们在每个要素地图单元上都有预定义数量的不同比例的锚定框,我认为在本文中这个数字是6

现在,因为这是一个检测问题,我们还将有地面真值边界框,在这里,我们粗略地比较锚框和GT框的IOU,如果它大于阈值,比如说0.5,我们预测锚框的偏移量