C++ Kinect-从深度图像获取真实世界的像素坐标

C++ Kinect-从深度图像获取真实世界的像素坐标,c++,math,coordinates,kinect,depth,C++,Math,Coordinates,Kinect,Depth,我正在使用以下数据集开发一个C++坠落检测应用程序: 我可以从这些图像中得到以毫米为单位的深度距离,但我想计算(如果可能的话)真实世界中像素的X和Y坐标 有可能吗?如何操作?如果您使用的是windows SDK,则可以捕获骨架框架。它提供真实世界的坐标x、y、z为您的kinect设备创建变换矩阵,并通过它简单地变换点。。。如果尚未从摄影机空间转换数据,则需要在此之前进行转换。beaware红外相机和普通相机有时会有不同的视场,它们之间有偏移。看这里:所以你需要关于获取数据的设备的所有信息。看这里

我正在使用以下数据集开发一个C++坠落检测应用程序: 我可以从这些图像中得到以毫米为单位的深度距离,但我想计算(如果可能的话)真实世界中像素的X和Y坐标


有可能吗?如何操作?

如果您使用的是windows SDK,则可以捕获骨架框架。它提供真实世界的坐标x、y、z

为您的kinect设备创建变换矩阵,并通过它简单地变换点。。。如果尚未从摄影机空间转换数据,则需要在此之前进行转换。beaware红外相机和普通相机有时会有不同的视场,它们之间有偏移。看这里:所以你需要关于获取数据的设备的所有信息。看这里。问题是我使用的是上面提到的数据集,我没有用我自己的相机拍摄这些图像。