Swift 如何转换ARKit捕获的帧';将CVPixelBuffer颜色空间转换为RGB
我想将coreML与vision一起用于我训练过的modell,但这只能使用Swift 如何转换ARKit捕获的帧';将CVPixelBuffer颜色空间转换为RGB,swift,arkit,metal,coreml,cvpixelbuffer,Swift,Arkit,Metal,Coreml,Cvpixelbuffer,我想将coreML与vision一起用于我训练过的modell,但这只能使用RGBcolorspace拍摄图像。我想知道如何将ARFrameCVPixelBuffer从ycbcr转换为RGB色彩空间。我需要CVPixelBuffer作为返回类型。我读到可以很容易地用金属着色器完成,但我想在项目的其余部分使用SceneKit。有没有不带金属材质球的解决方案?如果没有,我如何在保持SceneKit的同时使用金属着色器?提前感谢您的回答 我认为Vision可能能够自动执行此操作,因此这将是最简单的选择
RGB
colorspace拍摄图像。我想知道如何将ARFrame
CVPixelBuffer
从ycbcr
转换为RGB
色彩空间。我需要CVPixelBuffer
作为返回类型。我读到可以很容易地用金属着色器完成,但我想在项目的其余部分使用SceneKit
。有没有不带金属材质球的解决方案?如果没有,我如何在保持SceneKit
的同时使用金属着色器?提前感谢您的回答 我认为Vision可能能够自动执行此操作,因此这将是最简单的选择(只需将CVPixelBuffer传递给Vision请求对象)。否则,来自Accelerate框架的vImage可以做到这一点。是的,Vision会自动做到这一点。