Python Tensorflows对象检测API是否生成不正确的ymin和ymax边界框坐标?

Python Tensorflows对象检测API是否生成不正确的ymin和ymax边界框坐标?,python,tensorflow,object-detection,bounding-box,Python,Tensorflow,Object Detection,Bounding Box,我在一系列视频帧上运行API来跟踪场景中的对象,并提取每个对象的边界框坐标,以计算每个边界框的中心。然而,在ymin和ymax坐标中似乎存在偏移 场景是一个人在视野中行走,帧的底部与人的脚相匹配(这将推断出一个非常小的ymin值和一个不会延伸到帧停止的ymax值。但是API给出了以下标准化框坐标[452.269620895385858574197.93473720555371073.7505388259888639.3438720703125]。绝对坐标是[0.41876816749572754

我在一系列视频帧上运行API来跟踪场景中的对象,并提取每个对象的边界框坐标,以计算每个边界框的中心。然而,在ymin和ymax坐标中似乎存在偏移

场景是一个人在视野中行走,帧的底部与人的脚相匹配(这将推断出一个非常小的ymin值和一个不会延伸到帧停止的ymax值。但是API给出了以下标准化框坐标
[452.269620895385858574197.93473720555371073.7505388259888639.3438720703125]
。绝对坐标是
[0.41876816749572754,0.10309100896120071,0.9942134618759155,0.3329916000366211]
参考视频是1920 x 1080

放入MATLABs视频标签应用程序的同一帧(翻译成
[ymin-xmin-ymax-xmax]
)返回
[8.396575927734375,57.50376892089844,722.7988586425781,431.516952514648444]
。我知道它们不会完全匹配,因为我已经在框中手动绘制了地面真实值(对于x坐标来说尤其如此)然而,ymin和ymax应该非常接近,并且这些结果看起来更现实


以前有人遇到过这种情况吗?当API运行推断时,边界框被正确地绘制到图像上,因此我对发生的事情有点不知所措。因为我直接从
box=detection\u图中获取数据。按名称获取张量(“detection\u box:0”)
并将其存储在每次迭代中。

结果证明我忽略了python坐标系左上角有0,0的事实,API通过在visualization_utils.py中设置
top=ymin
bottom=ymax
来解释这一点。因此
ymax=1073
确实在框架的底部附近