如何在iOS中向WWDC 2010茶壶示例代码添加距离考虑因素?

如何在iOS中向WWDC 2010茶壶示例代码添加距离考虑因素?,ios,augmented-reality,wwdc,Ios,Augmented Reality,Wwdc,我正在试用WWDC 2010中的CoreMotion茶壶示例代码。 现在,代码考虑设备运动,除了渲染的3d对象和设备的距离。我如何添加这个 例如: 如果我将设备从渲染的3d对象上拉开,3d对象必须变小。 如果将设备放置在渲染的3d对象附近,则3d对象必须变大 如果向左平移,3d对象必须向右移动(可能是屏幕外)。 如果向右平移,则3d对象必须向左移动(可能会移到屏幕外) 我不知道从哪里开始找。 这可以通过设备的传感器计算出来吗?内部传感器(陀螺仪、加速度计、指南针)将难以完成这项任务,因为它们在物

我正在试用WWDC 2010中的CoreMotion茶壶示例代码。 现在,代码考虑设备运动,除了渲染的3d对象和设备的距离。我如何添加这个

例如: 如果我将设备从渲染的3d对象上拉开,3d对象必须变小。 如果将设备放置在渲染的3d对象附近,则3d对象必须变大 如果向左平移,3d对象必须向右移动(可能是屏幕外)。 如果向右平移,则3d对象必须向左移动(可能会移到屏幕外)

我不知道从哪里开始找。 这可以通过设备的传感器计算出来吗?

内部传感器(陀螺仪、加速度计、指南针)将难以完成这项任务,因为它们在物理世界中没有固定的参考点。有一个关于从加速度计和加速度计计算相对位置的问题的问答

增强现实应用程序通常使用摄像机定位参考点(例如,放置在桌子上的QR码或其他物体跟踪)并计算参考点大小/方向的变化来重新绘制增强物体,从而解决该问题


查看算法和方法有一个基本的起点。

您是否考虑过为您的对象提供GPS坐标?