C# 眼睛跟踪-估计人脸位置
我想用EmguCV创建一个眼动跟踪器。我遇到了计算面部位置的问题,为了正确估计一个人的凝视,我需要得到面部位置。我想用Haar级联检测人脸,然后用光流方法跟踪一些人脸特征。问题是下一步该怎么办C# 眼睛跟踪-估计人脸位置,c#,opencv,emgucv,opticalflow,eye-tracking,C#,Opencv,Emgucv,Opticalflow,Eye Tracking,我想用EmguCV创建一个眼动跟踪器。我遇到了计算面部位置的问题,为了正确估计一个人的凝视,我需要得到面部位置。我想用Haar级联检测人脸,然后用光流方法跟踪一些人脸特征。问题是下一步该怎么办 如何将跟踪的二维点投影到三维以提取旋转矩阵?我听说了Posite算法,但要使用它,我需要一个3D人脸模型。有没有一种方法可以在程序初始化期间自动创建人脸模型?经过一番努力,我找到了一个解决方案。简言之,我找到了一些好的特征进行跟踪,并根据这些特征创建了正弦人脸模型。该模型在POSIT算法中用于计算旋转矩阵
如何将跟踪的二维点投影到三维以提取旋转矩阵?我听说了Posite算法,但要使用它,我需要一个3D人脸模型。有没有一种方法可以在程序初始化期间自动创建人脸模型?经过一番努力,我找到了一个解决方案。简言之,我找到了一些好的特征进行跟踪,并根据这些特征创建了正弦人脸模型。该模型在POSIT算法中用于计算旋转矩阵和平移向量。为了将2D点投影到3D模型中,我使用了针孔相机模型。听起来你对这个领域还不熟悉。这可能意味着你会为此而挣扎。例如,opencv不会给你一个准确的面部位置,那会是什么呢!光流可能不会帮助你找到或跟踪眼睛。为什么不使用现有的眼动跟踪器呢?