Artificial intelligence 人脸检测的人工智能技术

Artificial intelligence 人脸检测的人工智能技术,artificial-intelligence,neural-network,face-detection,Artificial Intelligence,Neural Network,Face Detection,有人能说出人脸检测中使用的所有不同技术吗?神经网络、支持向量机、特征脸等技术 还有什么其他的呢?如果你需要的不仅仅是理论上的东西,而且你真的想做人脸检测,那么我建议你找到已经实现的解决方案 有许多针对不同语言的经过测试的库,它们被广泛用于此目的。查看此SO线程以了解更多信息:。如果您不仅需要理论知识,还需要进行人脸检测,那么我建议您找到已经实现的解决方案 有许多针对不同语言的经过测试的库,它们被广泛用于此目的。有关更多信息,请查看此SO线索:。一种新兴但相当有效的解决广泛类别视觉问题的方法,包括

有人能说出人脸检测中使用的所有不同技术吗?神经网络、支持向量机、特征脸等技术


还有什么其他的呢?

如果你需要的不仅仅是理论上的东西,而且你真的想做人脸检测,那么我建议你找到已经实现的解决方案


有许多针对不同语言的经过测试的库,它们被广泛用于此目的。查看此SO线程以了解更多信息:。

如果您不仅需要理论知识,还需要进行人脸检测,那么我建议您找到已经实现的解决方案


有许多针对不同语言的经过测试的库,它们被广泛用于此目的。有关更多信息,请查看此SO线索:。

一种新兴但相当有效的解决广泛类别视觉问题的方法,包括人脸检测,是一种由开发的概念/技术

非常笼统地说,这是一种类似神经网络的方法。这种类型的网络具有树状结构,其中每个级别的节点数量都显著减少。HTM模拟了新皮质的一些结构和算法特性。在[可能]与大脑皮层分离的情况下,在每个节点级别实现的分类算法使用贝叶斯算法。HTM模型基于脑功能的记忆预测理论,严重依赖于输入的时间性质;这可能解释了它处理视觉问题的能力,因为这些问题通常是暂时的,或者可以这样做,并且还需要对噪声和模糊性的容忍度


Numemta已经生产了一段时间的视觉套件和演示应用程序,最近生产了HTM技术的第一个商业应用程序,至少在视觉应用领域是如此。

一种新兴但相当有效的解决广泛视觉问题的方法,包括人脸检测,是使用,由开发的概念/技术

非常笼统地说,这是一种类似神经网络的方法。这种类型的网络具有树状结构,其中每个级别的节点数量都显著减少。HTM模拟了新皮质的一些结构和算法特性。在[可能]与大脑皮层分离的情况下,在每个节点级别实现的分类算法使用贝叶斯算法。HTM模型基于脑功能的记忆预测理论,严重依赖于输入的时间性质;这可能解释了它处理视觉问题的能力,因为这些问题通常是暂时的,或者可以这样做,并且还需要对噪声和模糊性的容忍度


Numemta已经生产了一段时间的视觉工具包和演示应用程序,最近生产了HTM技术的第一个商业应用程序,至少在视觉应用领域是如此。

我将要谈论的技术更多的是一种面向机器学习的方法;在我看来,这是非常有趣的,虽然不是最近的:Viola和Jones在《鲁棒实时人脸检测》一文中描述了这一点。我将OpenCV实现用于一个大学项目

它基于类哈尔特征,即图像矩形区域内像素强度的加减。这可以通过一个称为integral image的过程快速完成,对于这个过程,有时也存在GPGPU实现,称为前缀扫描。在线性时间内计算积分图像后,任何类haar特征都可以在恒定时间内计算。特征基本上是一个函数,它获取图像的24x24子窗口并计算特征值;三元组特征、阈值、极性称为弱分类器,因为

极性*特征<极性*阈值

对某些图像正确,对其他图像错误;弱分类器的性能预计只比随机猜测稍好一点,例如,它的准确率应至少为51-52%

极性为-1或+1

特征空间很大,约160000个特征,但有限

尽管阈值原则上可以是任何数字,但从训练集的简单考虑,结果表明,如果有N个示例,则必须检查每个极性和每个特征的N+1阈值,以便找到具有最佳精度的阈值。因此,通过彻底搜索三元组空间,可以找到最佳弱分类器

基本上,强分类器可以通过使用一种称为自适应boosting(AdaBoost)的算法迭代地选择尽可能好的弱分类器来组装;在每一次迭代中,在上一次迭代中被错误分类的示例都会得到更多的权重。强分类器的特点是其自身的全局阈值,由AdaBoost计算

几个强大的量词组合成一个注意级联的阶段;注意力级联背后的理念 在第一阶段中,将丢弃明显不是面的24x24子窗口;强分类器通常只包含几个弱分类器,如30或40,因此计算速度非常快。每个阶段都应该有很高的召回率,而假阳性率不是很重要。如果有10个阶段,每个阶段的召回率为0.99,假阳性率为0.3,则最终级联的召回率为0.9,假阳性率极低。出于这个原因,通常会调整强分类器以提高召回率和误报率。调整基本上包括减少AdaBoost计算的全局阈值

到达级联末端的子窗口被视为面


必须测试初始图像中的几个子窗口,最终重叠,最终在重新缩放图像之后。

我将要讨论的技术更多的是一种面向机器学习的方法;在我看来,这是非常有趣的,虽然不是最近的:Viola和Jones在《鲁棒实时人脸检测》一文中描述了这一点。我将OpenCV实现用于一个大学项目

它基于类哈尔特征,即图像矩形区域内像素强度的加减。这可以通过一个称为integral image的过程快速完成,对于这个过程,有时也存在GPGPU实现,称为前缀扫描。在线性时间内计算积分图像后,任何类haar特征都可以在恒定时间内计算。特征基本上是一个函数,它获取图像的24x24子窗口并计算特征值;三元组特征、阈值、极性称为弱分类器,因为

极性*特征<极性*阈值

对某些图像正确,对其他图像错误;弱分类器的性能预计只比随机猜测稍好一点,例如,它的准确率应至少为51-52%

极性为-1或+1

特征空间很大,约160000个特征,但有限

尽管阈值原则上可以是任何数字,但从训练集的简单考虑,结果表明,如果有N个示例,则必须检查每个极性和每个特征的N+1阈值,以便找到具有最佳精度的阈值。因此,通过彻底搜索三元组空间,可以找到最佳弱分类器

基本上,强分类器可以通过使用一种称为自适应boosting(AdaBoost)的算法迭代地选择尽可能好的弱分类器来组装;在每一次迭代中,在上一次迭代中被错误分类的示例都会得到更多的权重。强分类器的特点是其自身的全局阈值,由AdaBoost计算

几个强大的量词组合成一个注意级联的阶段;注意级联背后的想法是,在第一阶段,明显不是面孔的24x24子窗口被丢弃;强分类器通常只包含几个弱分类器,如30或40,因此计算速度非常快。每个阶段都应该有很高的召回率,而假阳性率不是很重要。如果有10个阶段,每个阶段的召回率为0.99,假阳性率为0.3,则最终级联的召回率为0.9,假阳性率极低。出于这个原因,通常会调整强分类器以提高召回率和误报率。调整基本上包括减少AdaBoost计算的全局阈值

到达级联末端的子窗口被视为面


初始图像中的几个子窗口,最终重叠,最终在重新缩放图像后,必须进行测试。

ooh,这是杰夫·霍金斯在《智能》一书中建立的方法,对吗?谢谢,尽管读了这本书,我还是完全忘记了。哦。@harry:是的,HTM或者更确切地说HTM所基于/启发的大脑皮层的特征,是杰夫·霍金斯在他的《智力论》一书中描述的。哦,这是杰夫·霍金斯在《智力论》一书中建立的方法,对吗?谢谢,尽管读了这本书,我还是完全忘记了。噢。@harry:是的,HTM或者更确切地说是HTM所基于/启发的大脑皮层的特征,是杰夫·霍金斯在他的《智力论》一书中描述的。对不起,是的,这纯粹是理论上的。对不起,是的,这纯粹是理论上的。