Ios 人脸识别是如何构建在核心ML视觉框架中的
在这个框架中,人脸识别是如何完成的?文档声明它是框架的一部分 人脸检测与识别 但是,不清楚哪些类/方法允许我们这样做。我发现的最接近的东西是Ios 人脸识别是如何构建在核心ML视觉框架中的,ios,swift,ios11,coreml,Ios,Swift,Ios11,Coreml,在这个框架中,人脸识别是如何完成的?文档声明它是框架的一部分 人脸检测与识别 但是,不清楚哪些类/方法允许我们这样做。我发现的最接近的东西是VNFaceObservation,它缺少重要的细节 这更像是一个手工过程,我们必须以某种方式包含我们自己的学习模型吗如果是,怎么做?尽管从WWDC视频中他们似乎在使用深度学习,但关于vision框架的技术细节尚不清楚 下面是一些在图像中定位眼睛的示例代码: let request = VNDetectFaceLandmarksRequest() let h
VNFaceObservation
,它缺少重要的细节
这更像是一个手工过程,我们必须以某种方式包含我们自己的学习模型吗如果是,怎么做?尽管从WWDC视频中他们似乎在使用深度学习,但关于vision框架的技术细节尚不清楚 下面是一些在图像中定位眼睛的示例代码:
let request = VNDetectFaceLandmarksRequest()
let handler = VNImageRequestHandler(cvPixelBuffer: buffer, orientation: orientation)
try! handler.perform([request])
guard let face = request.results?.first as? VNFaceObservation,
let leftEye = face.landmarks?.leftEye else { return }
let box = face.boundingBox
let points = (0..<landmark.pointCount).map({ i in
let point = landmark.point(at: i)
let x = box.minX + box.width * CGFloat(point.x)
let y = 1 - (box.minY + box.height * CGFloat(point.y))
return CGPoint(x: x, y: y)
})
let request=vndettectFaceLandmarksRequest()
let handler=vnimagerrequesthandler(cvPixelBuffer:buffer,orientation:orientation)
尝试handler.perform([请求])
守卫让面=请求。结果?第一个为?通过观察,
leftEye=face.landmarks?.leftEye-else{return}
let box=face.boundingBox
让点=(0..这里的点,基本上可以画出人的脸?--使用检测到的地标