Camera 如何校准摄像机和机器人

Camera 如何校准摄像机和机器人,camera,computer-vision,robot,camera-calibration,Camera,Computer Vision,Robot,Camera Calibration,我有一个机器人和一个照相机。这个机器人只是一个3D打印机,我把挤出机换成了一个工具,所以它不打印,但它可以独立移动每个轴。床是透明的,床下有一个摄像头,摄像头从不移动。它只是一个普通的网络摄像头(playstation eye) 我想校准机器人和摄像机,这样当我点击摄像机提供的图像上的一个像素时,机器人就会去那里。我知道我可以测量两帧之间的平移和旋转,但这可能会返回很多错误 这就是我的问题,我如何将摄像机和机器人联系起来。摄像机已经用棋盘校准过了 为了简化操作,可以忽略Z轴。因此,校准将超过X和

我有一个机器人和一个照相机。这个机器人只是一个3D打印机,我把挤出机换成了一个工具,所以它不打印,但它可以独立移动每个轴。床是透明的,床下有一个摄像头,摄像头从不移动。它只是一个普通的网络摄像头(playstation eye)

我想校准机器人和摄像机,这样当我点击摄像机提供的图像上的一个像素时,机器人就会去那里。我知道我可以测量两帧之间的平移和旋转,但这可能会返回很多错误

这就是我的问题,我如何将摄像机和机器人联系起来。摄像机已经用棋盘校准过了


为了简化操作,可以忽略Z轴。因此,校准将超过X和Y。这取决于您可以接受的误差

我们有类似的设置,我们有一个摄像头,它可以看到某个平面上有可以移动的物体

我们假设图像和平面是平行的

首先让我们计算旋转。将刀具放置在图像中心可以看到的位置,沿一个轴移动刀具,选择图像上与刀具位置相对应的点。 这两点将为您提供图像坐标系中的向量。 该矢量与原始图像轴之间的角度将产生旋转

可以用类似的方法计算比例,知道矢量长度(以像素为单位)和刀具位置之间的距离(以毫米或厘米为单位)将给出图像和真实世界轴之间的比例因子

如果此方法不能提供足够的精度,您可以使用计算机视觉技术校准相机的变形和相对于平面的位置。哪个更复杂。 请参阅以下链接


这取决于您可以接受的错误

我们有类似的设置,我们有一个摄像头,它可以看到某个平面上有可以移动的物体

我们假设图像和平面是平行的

首先让我们计算旋转。将刀具放置在图像中心可以看到的位置,沿一个轴移动刀具,选择图像上与刀具位置相对应的点。 这两点将为您提供图像坐标系中的向量。 该矢量与原始图像轴之间的角度将产生旋转

可以用类似的方法计算比例,知道矢量长度(以像素为单位)和刀具位置之间的距离(以毫米或厘米为单位)将给出图像和真实世界轴之间的比例因子

如果此方法不能提供足够的精度,您可以使用计算机视觉技术校准相机的变形和相对于平面的位置。哪个更复杂。 请参阅以下链接


我校准了图像,因为失真非常高。然后,我使用相机点和工具真实世界点之间的关系(全部在2D中)来计算变换矩阵(一次旋转,一次平移x和一次平移y)。但是我在计算翻译方面有问题。我可以手工做,但是。。。它很容易出错。基本上,你必须在图像上识别一些点,知道工具系统中的坐标,你可以放置一些标记或自己选择点,而我看不到你的设置,很难准确地解释过程这是机器人:工具是针尖。您还可以看到相机和来自相机的图像。我的目标是点击相机图像中的某个像素,然后将针移动到那里。我将针放在图像中10个不同的位置,让用户点击针所在的像素。然后我使用OpenCV中的“findhomography”来找到关系,平移效果很好,旋转效果不好,所以针的位置和应该的位置有很大的区别be@MichaelKupchick这两个链接都是死的,我校准了图像,因为失真非常高。然后,我使用相机点和工具真实世界点之间的关系(全部在2D中)来计算变换矩阵(一次旋转,一次平移x和一次平移y)。但是我在计算翻译方面有问题。我可以手工做,但是。。。它很容易出错。基本上,你必须在图像上识别一些点,知道工具系统中的坐标,你可以放置一些标记或自己选择点,而我看不到你的设置,很难准确地解释过程这是机器人:工具是针尖。您还可以看到相机和来自相机的图像。我的目标是点击相机图像中的某个像素,然后将针移动到那里。我将针放在图像中10个不同的位置,让用户点击针所在的像素。然后我使用OpenCV中的“findhomography”来找到关系,平移效果很好,旋转效果不好,所以针的位置和应该的位置有很大的区别be@MichaelKupchick两个环节都没有了