Ios 带摄像头的视频直播和ARKit
我想实现这样一个场景:使用带有Ios 带摄像头的视频直播和ARKit,ios,sprite-kit,arkit,coreml,apple-vision,Ios,Sprite Kit,Arkit,Coreml,Apple Vision,我想实现这样一个场景:使用带有Vision的摄像头实时流检测一些矩形,然后根据一些逻辑处理该输出,然后根据逻辑输出使用ARKit显示AR元素 我发现的示例没有涵盖从Vision实时流检测到ARKit使用SpriteKit的整个过程,而是分别针对这些“步骤”。我在带有Vision的直播中找到的一个是使用UIImageView实现的。我为ARKit和SpriteKit找到的其他工具都使用了ARSKView 将所有这些整合到一个分步过程中的最佳方法是什么
Vision
的摄像头实时流检测一些矩形,然后根据一些逻辑处理该输出,然后根据逻辑输出使用ARKit
显示AR元素
我发现的示例没有涵盖从Vision
实时流检测到ARKit
使用SpriteKit
的整个过程,而是分别针对这些“步骤”。我在带有Vision
的直播中找到的一个是使用UIImageView
实现的。我为ARKit
和SpriteKit
找到的其他工具都使用了ARSKView
将所有这些整合到一个分步过程中的最佳方法是什么