Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/ios/96.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Android 检查用户是否正在从代码查看屏幕_Android_Ios_Face Recognition_Iphone X - Fatal编程技术网

Android 检查用户是否正在从代码查看屏幕

Android 检查用户是否正在从代码查看屏幕,android,ios,face-recognition,iphone-x,Android,Ios,Face Recognition,Iphone X,在较新的Android设备中,可以用你的脸解锁手机。iphonex也可以做到这一点 是否有办法使用这些传感器/摄像头来检查用户是否正在观看屏幕 编辑: 我发现谷歌也有一个视觉框架:是的,在iOS 11中,开发者也可以通过iOS最新版本在他们的第三方应用程序中使用此功能。此功能背后的整个想法是使用带面部识别的前置摄像头。 但您必须优化它,以便在何时捕获图像进行处理 提示 在应用程序上变为活动状态或成为前景 当用户与任何UI控件或小部件(如按钮、, 表、触摸事件等) 确保在需要时停止或暂停处理 应用

在较新的Android设备中,可以用你的脸解锁手机。iphonex也可以做到这一点

是否有办法使用这些传感器/摄像头来检查用户是否正在观看屏幕

编辑:
我发现谷歌也有一个视觉框架:

是的,在iOS 11中,开发者也可以通过iOS最新版本在他们的第三方应用程序中使用此功能。此功能背后的整个想法是使用带面部识别的前置摄像头。 但您必须优化它,以便在何时捕获图像进行处理

提示

  • 在应用程序上变为活动状态或成为前景

  • 当用户与任何UI控件或小部件(如按钮、, 表、触摸事件等)

  • 确保在需要时停止或暂停处理 应用程序未激活
  • 您还可以使用陀螺仪和其他传感器来查找设备的物理状态 是和否

    iPhone X上的内置人脸识别功能可以解锁设备并授权其他内置功能(Apple Pay、iTunes/App Store支付等)。你也可以在你的应用中使用它作为一种授权方法——你在其他设备上用来支持触摸ID的框架调用会自动在iPhone X上使用Face ID而不是Face ID

    默认情况下,Face ID要求用户查看屏幕。因此,如果您的注意力检测用例与授权或解锁有关,您可以使用LocalAuthentication来完成。(但是,用户可以在可访问性设置中禁用注意检测,从而降低安全性,但增加面部ID的可用性。第三方应用程序无法控制甚至无法读取此设置。)


    如果你说的是更直接地进行注意力检测或凝视跟踪。。。苹果没有提供任何API来公开脸ID的内部工作,或者至少是凝视跟踪部分。以下是他们所拥有的:

    • ARKit提供了(另请参见),它实时提供了一个详细的人脸3D模型(假设使用了一些与人脸ID相同的神经引擎来获取细节和性能)

      但就ARKit而言,眼睛只是脸上的两个洞——没有注视跟踪

    • 苹果公司提供人脸检测和人脸地标识别(即,它定位眼睛、鼻子、嘴巴等)。视觉确实可以识别眼睛轮廓和瞳孔,理论上可以将其用作凝视跟踪的基础

      然而,由于Vision只提供2D数据,而没有面部的3D姿势,如果你想自己建立凝视跟踪,你仍然会面临严重的计算机视觉问题。Vision处理2D图像,这意味着它不需要iPhoneX(但也意味着它也不受益于iPhoneX上的TrueDepth摄像头)

    • 提供对TrueDepth相机的访问,因此您可以获得Face ID和ARKit用于发挥其魔力的相同颜色+深度图像。(你只是没人说你有魔力。)


    所有这些都不是说在iOS上或者在iPhoneX上都不可能实现凝视跟踪——所有的构建块都在那里,所以只要有足够的研发努力,你就可以自己实现它。但是苹果没有提供任何开发者访问内置凝视跟踪机制的权限。

    如果你愿意用ML模式扩展你的应用程序,谷歌是另一种选择。您甚至可以通过以下方式跟踪用户的虹膜:


    显然,对于简单的眼睛检测来说,这是一种过分的手段,但是你应该能够用这些模型和框架做更多的事情。

    非常好,我一定会检查这个框架。是的,当然需要优化。你知道需要什么样的计算能力吗?你为谷歌视觉框架链接的文档没有提到凝视跟踪/注意力检测是这项技术的一项功能。有一个苹果官方演示项目,展示从iOS 12开始眼睛位置和方向的使用。您可以构建自己的逻辑来添加一个虚拟平面,模拟设备的大小和位置/方向,并查看眼球光线是否与该平面(您的设备)相交,这需要相当高级的AR使用/知识。