Ios 人脸识别是如何构建在核心ML视觉框架中的

Ios 人脸识别是如何构建在核心ML视觉框架中的,ios,swift,ios11,coreml,Ios,Swift,Ios11,Coreml,在这个框架中,人脸识别是如何完成的?文档声明它是框架的一部分 人脸检测与识别 但是,不清楚哪些类/方法允许我们这样做。我发现的最接近的东西是VNFaceObservation,它缺少重要的细节 这更像是一个手工过程,我们必须以某种方式包含我们自己的学习模型吗如果是,怎么做?尽管从WWDC视频中他们似乎在使用深度学习,但关于vision框架的技术细节尚不清楚 下面是一些在图像中定位眼睛的示例代码: let request = VNDetectFaceLandmarksRequest() let h

在这个框架中,人脸识别是如何完成的?文档声明它是框架的一部分

人脸检测与识别

但是,不清楚哪些类/方法允许我们这样做。我发现的最接近的东西是
VNFaceObservation
,它缺少重要的细节


这更像是一个手工过程,我们必须以某种方式包含我们自己的学习模型吗如果是,怎么做?

尽管从WWDC视频中他们似乎在使用深度学习,但关于vision框架的技术细节尚不清楚

下面是一些在图像中定位眼睛的示例代码:

let request = VNDetectFaceLandmarksRequest()
let handler = VNImageRequestHandler(cvPixelBuffer: buffer, orientation: orientation)
try! handler.perform([request])
guard let face = request.results?.first as? VNFaceObservation,
  let leftEye = face.landmarks?.leftEye else { return }

let box = face.boundingBox
let points = (0..<landmark.pointCount).map({ i in
  let point = landmark.point(at: i)
  let x = box.minX + box.width * CGFloat(point.x)
  let y = 1 - (box.minY + box.height * CGFloat(point.y))
  return CGPoint(x: x, y: y)
})
let request=vndettectFaceLandmarksRequest()
let handler=vnimagerrequesthandler(cvPixelBuffer:buffer,orientation:orientation)
尝试handler.perform([请求])
守卫让面=请求。结果?第一个为?通过观察,
leftEye=face.landmarks?.leftEye-else{return}
let box=face.boundingBox

让点=(0..这里的点,基本上可以画出人的脸?--使用检测到的地标