Kernel 基于核主成分分析(KPCA)的特征脸未知样本评估

Kernel 基于核主成分分析(KPCA)的特征脸未知样本评估,kernel,pca,face-recognition,Kernel,Pca,Face Recognition,我有一个关于看不见的样品的问题,我想确认(面对还是不面对)。使用普通的特征面方法(即不再现核代替PCA的内积),通过将样本投影到列车集矩阵上PCA的特征向量上,并最终根据阈值测试投影到特征向量的最小距离,来完成评估 我草草翻阅了几篇讨论KPCA方法的出版物,但当涉及到测试看不见样本的最后一步时,我遇到了一个小小的、未回答的问题: 使用普通PCA,在投影到特征向量之前,从测试向量中减去训练集的平均值。KPCA的情况并非如此。我想这里的问题是,我们不能访问内核空间中的点,只能访问距离。因此,我们没有

我有一个关于看不见的样品的问题,我想确认(面对还是不面对)。使用普通的特征面方法(即不再现核代替PCA的内积),通过将样本投影到列车集矩阵上PCA的特征向量上,并最终根据阈值测试投影到特征向量的最小距离,来完成评估

我草草翻阅了几篇讨论KPCA方法的出版物,但当涉及到测试看不见样本的最后一步时,我遇到了一个小小的、未回答的问题:

使用普通PCA,在投影到特征向量之前,从测试向量中减去训练集的平均值。KPCA的情况并非如此。我想这里的问题是,我们不能访问内核空间中的点,只能访问距离。因此,我们没有“中庸”。然而,这难道不至少值得讨论吗


感谢您的意见和建议,因为我认为这是迄今为止未提及的某种不准确情况。

在Scholkopf的早期KPCA工作中(有一篇以他为作者的评论文章,标题涉及“非线性成分分析”),有一个KPCA变体涉及减去平均值。它使事情在计算上变得更加复杂,并且带中心的后续算法(如估计逆,或样本外估计)也变得更加复杂。这里的复杂性更多地与计算有关,越复杂=成本最高


大约在同一时间,Williams和Seeger(2001)的工作表明,KPCA可以作为密度函数的有限维近似(在高斯核或其他Parzen窗函数下)导出。这种解释不需要平均偏移量。对于这些,还有一个很好的解释,即KPCA将数据映射到一个超球体上。平均偏移量会破坏这种解释。我不确定它是如何推广到与密度关系不大的非传统内核的。这种基于密度的解释确实与正交序列密度估计和核熵分析(提供了调整KPCA程序的方法)有很好的联系。

在Scholkopf的早期KPCA工作中(有一篇以他为作者的评论文章,标题涉及“非线性成分分析”),有一个KPCA变量涉及减去平均值。它使事情在计算上变得更加复杂,并且带中心的后续算法(如估计逆,或样本外估计)也变得更加复杂。这里的复杂性更多地与计算有关,越复杂=成本最高


大约在同一时间,Williams和Seeger(2001)的工作表明,KPCA可以作为密度函数的有限维近似(在高斯核或其他Parzen窗函数下)导出。这种解释不需要平均偏移量。对于这些,还有一个很好的解释,即KPCA将数据映射到一个超球体上。平均偏移量会破坏这种解释。我不确定它是如何推广到与密度关系不大的非传统内核的。这种基于密度的解释确实与正交序列密度估计和核熵分析(它提供了调整KPCA程序的方法)有很好的联系。

非常感谢关于Williams和Seeger的提示,我将介绍这一点。由于RK无论如何都与密度有关(源自Fredholm备选方案和集成理论),这应该是非常有趣的。我有Scholkopf的书,但我找不到关于这方面的任何信息。正如我之前所说的,“平均值”并不存在于由距离的线性组合(=内积)定义的空间中,因为它不是点空间。非常感谢关于Williams和Seeger的提示,我将对此进行研究。由于RK无论如何都与密度有关(源自Fredholm备选方案和集成理论),这应该是非常有趣的。我有Scholkopf的书,但我找不到关于这方面的任何信息。正如我之前所说,“平均值”并不存在于由距离的线性组合(=内积)定义的空间中,因为它不是点空间。。