Ios 如何从嵌入iphone肖像图片的深度数据计算距离值?
我正在开发一个从深度数据重建点云的应用程序。 我尝试使用一些智能手机拍摄的肖像图像中嵌入的深度数据 到目前为止,我在谷歌相机应用程序照片方面取得了进展。它具有文档化的深度格式() 我还可以通过将ios肖像图片上传到exiftool或使用exiftool从中提取深度相关数据。以下是嵌入式数据的预览: 不幸的是,我无法确定编码到该嵌入图像的实际距离值 xmp元数据中似乎存在编码相关信息,例如Ios 如何从嵌入iphone肖像图片的深度数据计算距离值?,ios,iphone,computer-vision,point-clouds,depth,Ios,Iphone,Computer Vision,Point Clouds,Depth,我正在开发一个从深度数据重建点云的应用程序。 我尝试使用一些智能手机拍摄的肖像图像中嵌入的深度数据 到目前为止,我在谷歌相机应用程序照片方面取得了进展。它具有文档化的深度格式() 我还可以通过将ios肖像图片上传到exiftool或使用exiftool从中提取深度相关数据。以下是嵌入式数据的预览: 不幸的是,我无法确定编码到该嵌入图像的实际距离值 xmp元数据中似乎存在编码相关信息,例如 Stored Format = 'L008' // one component 8 bit Native
Stored Format = 'L008' // one component 8 bit
Native Format = 'hdis' // half precision floating point disparity
Depth Data Version = 125537 // varies
Int min value = 0
Int max value = 255
Float Min Value // for example 1.23
Float Max Value // for example 2.12
我尝试插值图像数据值,并使用它作为视差,就像谷歌相机一样
distance_to_camera = constant * 1.0 / (Float_Max_Value * pixel / 255 + Float_Min_Value * (1 - pixel / 255))
但它会导致严重扭曲的点云。我认为这可能是不正确的深度数据解释。如果您只在深度贴图中获取点云,则不需要实际的摄影机对象距离。您可以使用一些可视化库直接生成点云。我推荐
然后,如果需要距离信息,则需要获取相机参数。查看。如果您只想获取深度贴图中的点云,则不需要实际的摄影机对象距离。您可以使用一些可视化库直接生成点云。我推荐
然后,如果需要距离信息,则需要获取相机参数。查看。似乎嵌入的数据并不直接表示深度。我已经生成了密集云可视化,发现它非常扭曲。我试着直接使用嵌入的深度数据作为Z坐标,也作为逆Z坐标(视差,如图像元所示)。我试着在“浮点最小值”和“浮点最大值”之间插入深度值/差异。似乎嵌入的数据并不能直接表示深度。我已经生成了密集云可视化,发现它非常扭曲。我试着直接使用嵌入的深度数据作为Z坐标,也作为逆Z坐标(视差,如图像元所示)。我还尝试在“浮点最小值”和“浮点最大值”之间插入深度值/差异。