Computer vision 从深度传感器获取局部点云的最小定向边界盒

Computer vision 从深度传感器获取局部点云的最小定向边界盒,computer-vision,ros,point-cloud-library,Computer Vision,Ros,Point Cloud Library,如何从局部点云计算定向边界框 我的使用案例是,我有一个深度相机,用一个对象(可能有不规则的几何体)俯视桌子。相机无法获取完整的点云,因为对象的底部被遮挡 从有限的点云信息,我可以得到,我如何适应它周围的定向边界框 我打算使用边界框来计算质心,假设密度均匀,并将其用作抓取启发式 2d中的类似问题:如果我理解正确,为什么不假设以下内容: 将可见点重新投影到平面(表) 获取重投影点周围的边界矩形(未看到的点必须 如果相机与它正交,则不能在它的内部,也不能在外部 投影曲面,在本例中为表格),这是一个边界

如何从局部点云计算定向边界框

我的使用案例是,我有一个深度相机,用一个对象(可能有不规则的几何体)俯视桌子。相机无法获取完整的点云,因为对象的底部被遮挡

从有限的点云信息,我可以得到,我如何适应它周围的定向边界框

我打算使用边界框来计算质心,假设密度均匀,并将其用作抓取启发式


2d中的类似问题:

如果我理解正确,为什么不假设以下内容:

  • 将可见点重新投影到平面(表)
  • 获取重投影点周围的边界矩形(未看到的点必须 如果相机与它正交,则不能在它的内部,也不能在外部 投影曲面,在本例中为表格),这是一个边界框轮廓
  • 边界框底部是表格,其顶部与之平行,并包含距摄影机最近的点

  • 这很有趣。但是,如果没有这个平面假设,真的没有通用的方法来获得三维边界框吗?三维任务与二维任务相同,但还有一个空间。但从平面假设开始更容易理解和形象化。此外,它的计算效率更高。如何获得3d版本的方向?是否有任何ros包可以做到这一点?我不熟悉ros,但可能至少有2d版本。对于3d,只需在(x,y)和(y,z)平面上使用两次。我想你不能得到z轴id的方向,因为你看不到它上面的所有点。找到(x,y)平面的定向边界框,并假设z在范围(0,max(z))内。