Computer vision OpenTLD,它与其他目标检测方法有何不同?

Computer vision OpenTLD,它与其他目标检测方法有何不同?,computer-vision,object-recognition,Computer Vision,Object Recognition,对于那些听说过OpenTLD的人来说,它是如何在跟踪不同对象之间进行切换的?它一次只能跟踪一个对象,但是如果我在同一个视频源中训练了两个或多个对象,OpenTLD如何决定跟踪什么?在所有示例视频中,用户手动绑定要跟踪的对象,然后自动跟踪 是否仅将其视为对象跟踪器?而不是物体识别系统?我对此有点困惑 对于我的应用程序,我可以一次跟踪/检测一个对象,但前提是我可以选择切换到跟踪另一个对象 例如,在类似Haar的功能设置中: 1.我有一个杯子和一本书,用了一些正反两方面的知识 2.启动我的Haar识别

对于那些听说过OpenTLD的人来说,它是如何在跟踪不同对象之间进行切换的?它一次只能跟踪一个对象,但是如果我在同一个视频源中训练了两个或多个对象,OpenTLD如何决定跟踪什么?在所有示例视频中,用户手动绑定要跟踪的对象,然后自动跟踪

是否仅将其视为对象跟踪器?而不是物体识别系统?我对此有点困惑

对于我的应用程序,我可以一次跟踪/检测一个对象,但前提是我可以选择切换到跟踪另一个对象

例如,在类似Haar的功能设置中: 1.我有一个杯子和一本书,用了一些正反两方面的知识 2.启动我的Haar识别软件,该软件将拿起杯子和书,并用正确的标签突出显示它们

理想情况下,我认为/希望/希望OpenTLD做到的是: 1.使用编译的exe,在视频中绑定cup,跟踪和学习 2.下一本视频、跟踪和学习装订书籍 3.在一个包含书和杯子的视频提要中,我告诉程序告诉我它可以在实时视频提要中检测到的所有对象。 4.程序告诉我它检测到杯子和书,并给我跟踪其中一个的选项

这是否可行

看看这篇论文: