基于iPhone的运动检测

基于iPhone的运动检测,iphone,ios,core-motion,Iphone,Ios,Core Motion,我在AppStore中看到了至少6个应用程序,它们在检测运动时拍照,这是一种间谍行为。有人知道使用iphonesdk做这些事情的一般方法是什么吗 我猜他们的应用程序每X秒拍摄一次照片,并将当前图像与之前的图像进行比较,以确定读取运动是否有任何差异。还有更好的主意吗 谢谢大家! 您可以让手机使用手机顶部前端的传感器检测光线变化。我只是不知道你怎么才能接触到手机的那部分你可能还可以用麦克风来检测噪音。这实际上是多少安全系统的运动探测器工作-但他们听超声波。这项技术的成功与否在很大程度上取决于iPho

我在AppStore中看到了至少6个应用程序,它们在检测运动时拍照,这是一种间谍行为。有人知道使用iphonesdk做这些事情的一般方法是什么吗

我猜他们的应用程序每X秒拍摄一次照片,并将当前图像与之前的图像进行比较,以确定读取运动是否有任何差异。还有更好的主意吗


谢谢大家!

您可以让手机使用手机顶部前端的传感器检测光线变化。我只是不知道你怎么才能接触到手机的那部分

你可能还可以用麦克风来检测噪音。这实际上是多少安全系统的运动探测器工作-但他们听超声波。这项技术的成功与否在很大程度上取决于iPhone的话筒灵敏度以及您对信号的API访问方式。如果麦克风不够灵敏,尽管这不是真正的运动检测,但听正常的人类听觉范围噪声可能足以满足您的需要

至于图像-考虑使用某种字符串编辑距离算法,但对于图像。每X时间拍一张照片,并将其与前一张照片进行比较的东西。如果图像差异太大,编辑距离太大,则会发出警报。这将解释日光的缓慢变化,可能比在监测期开始时拍摄一张参考图像,然后将所有其他图像与之进行比较效果更好


如果你将图像和声音这两种方法结合起来,它可能会满足你的需要。

我想你已经解决了这个问题-手机可能会在图像B和图像A之间的差值超过某个预定义阈值的地方保存图像

为了进行分析,您必须找到一个用Objective-C编写的图像库。

我有一个应用程序。10年前我为Delphi编写了一个库,但分析是最重要的

关键是从整个屏幕生成一个矩阵,例如25x25,然后为每个单元格生成一个平均颜色。然后,比较一张图片与另一张图片的平均颜色的R、G、B、H、S、V,如果差值大于设定值,则得到运动


在我的应用程序中,我使用片段着色器实时显示运动。任何问题,请随意提问

快速提示:灵活调整图像编辑距离。所有的数码相机都有噪音,这使得两张看似相同的照片在某种程度上有很大的不同。如果没有太多可用光线,相机将自动增加ISO感光度,从而产生更多的噪音。如果你对此并不厌倦,你的应用程序可能在白天运行良好,但在晚上会触发错误警报。有人知道这样的库吗?