Unity3d 在远程应用程序中使用全息镜头空间定位渲染空间映射

Unity3d 在远程应用程序中使用全息镜头空间定位渲染空间映射,unity3d,mapping,remote-server,hololens,azure-spatial-anchors,Unity3d,Mapping,Remote Server,Hololens,Azure Spatial Anchors,通过使用Unity 2018.4.12f中的MRTK_V2,我尝试用第一代全息透镜在空间上绘制一座多层建筑。hololens提供了我希望在远程位置(在扫描的建筑物外运行unity应用程序的计算机)近实时(大约10秒)渲染的空间映射数据。这样做的想法是,远程位置的人可以跟踪扫描过程,在他/她的眼前看到建筑物“构建”的3D模型,同时也可以在3D模型中跟踪hololens用户 我已经有了映射和跟踪功能,我能够通过套接字发送序列化网格,并在另一端反序列化它们。但是,我无法在接收端的正确位置渲染网格 在发

通过使用Unity 2018.4.12f中的MRTK_V2,我尝试用第一代全息透镜在空间上绘制一座多层建筑。hololens提供了我希望在远程位置(在扫描的建筑物外运行unity应用程序的计算机)近实时(大约10秒)渲染的空间映射数据。这样做的想法是,远程位置的人可以跟踪扫描过程,在他/她的眼前看到建筑物“构建”的3D模型,同时也可以在3D模型中跟踪hololens用户

我已经有了映射和跟踪功能,我能够通过套接字发送序列化网格,并在另一端反序列化它们。但是,我无法在接收端的正确位置渲染网格

在发送网格之前,我尝试将单个网格的垂直点从局部空间转换为世界空间,但这不起作用,因为网格的位置由连接到它的世界锚点控制。断开锚点似乎不太有利,因为这会导致数据出现大量漂移。我想将所有网格连接到空间中的一个点,将它们转换为世界空间,但在我目前对空间映射概念的理解中,这是不可能的

现在我想知道是否可以相对于接收端的世界锚点渲染网格,例如通过使用azure空间锚点。我可以想象这是不可能的,因为锚可能需要与现实世界的连接。此外,锚点在运行时确实会更改其位置,因此需要不断更新,使锚点的使用不太理想


任何帮助都将不胜感激

对于这个问题,我们现在确实有了答案,可以通过Azure Spatial Anchors 2.0 SDK更新来实现

作为ASA2.0的一项新功能添加,在创建和查询锚定时,我们的新SDK利用非视觉传感器信号来实现这些场景,如GPS、Wi-Fi接入点和蓝牙信标数据,作为此新功能的一部分


关于如何使用设备上的传感器创建和定位锚,请阅读更多。

对于这一点,我们现在有了答案,可以通过Azure Spatial anchors 2.0 SDK更新来完成

作为ASA2.0的一项新功能添加,在创建和查询锚定时,我们的新SDK利用非视觉传感器信号来实现这些场景,如GPS、Wi-Fi接入点和蓝牙信标数据,作为此新功能的一部分


有关如何使用设备上的传感器创建和定位锚点,请阅读更多。

但是锚点仍然是静态的,对吗?一旦放置在某个位置,它们就不能移动了?例如,如果锚定在汽车上,汽车开走了,锚定会随之移动吗?但锚定仍然是静态的,对吗?一旦放置在某个位置,它们就不能移动了?例如,如果锚定在汽车上,汽车开走了,锚定会随之移动吗?