Ios 使用CIDetector时的X和Y值

Ios 使用CIDetector时的X和Y值,ios,swift,camera,core-image,cidetector,Ios,Swift,Camera,Core Image,Cidetector,所以我把我的代码贴在下面,它似乎能正确地检测人脸。当我试图围绕检测到的人脸构建一个矩形时,我看到了.bounds.origin.x和.bounds.origin.y的选项,我有几个问题希望你们能帮我回答: 背景:我有一个图像视图,显示AVVideoOutput,CIDetector在图像视图上工作 是CIDetector找到的面中间的x点和y点吗?或者是面与父视图x&y的距离?或者是检测到的人脸与图像视图中心的关系 从中绘制值的x和y平面的布局是什么?(例如,如果检测到的面部位于前摄像头的右下角

所以我把我的代码贴在下面,它似乎能正确地检测人脸。当我试图围绕检测到的人脸构建一个矩形时,我看到了
.bounds.origin.x
.bounds.origin.y
的选项,我有几个问题希望你们能帮我回答:

背景:我有一个图像视图,显示
AVVideoOutput
,CIDetector在图像视图上工作

  • 是CIDetector找到的面中间的x点和y点吗?或者是面与父视图x&y的距离?或者是检测到的人脸与图像视图中心的关系
  • 从中绘制值的x和y平面的布局是什么?(例如,如果检测到的面部位于前摄像头的右下角,则x和y的值较小,接近0偶数)
  • 飞机在什么地方有记录吗
  • 这架飞机是可以操纵的还是标准的
  • 是否因为我没有发现任何积极和消极因素
  • 这些值/如果相机移动,该平面是否会发生变化,或者这些值是否完全由于检测到的面部中心而发生变化

  • 感谢您提供的任何帮助或文档!我也会搜索,但我希望有人能帮我,因为我没有找到太多考虑我(显然)我真的不知道我想要什么…

    你看过AVCaptureOutput上的
    metadataOutputRectOfInterestForRect:
    和相关方法吗?你看过AVCaptureOutput上的
    metadataOutputRectOfInterestForRect:
    和相关方法吗?