Machine learning 基于PCA的降维

Machine learning 基于PCA的降维,machine-learning,pca,projection,dimensionality-reduction,dimension-reduction,Machine Learning,Pca,Projection,Dimensionality Reduction,Dimension Reduction,假设我有一个$n\times p$数据矩阵$X$,$p>>n$。为了减少数据的维数,我使用主成分分析,如下所示: 我执行SVD并找到矩阵U($n\times r$)和V($r\times p$),使得$X=UDV$,其中$D$是对角矩阵。现在,我使用矩阵$V$来减少$X$的维数,即使用PC分数$Z=XV^{\prime}$。我的问题是,在这种情况下,像“受限等距”这样的属性是否适用于投影数据点。特别是,如果我认为$x$的行是从一些分布中独立生成的,那么什么是最锐利的界限($M $,$M),对于下

假设我有一个$n\times p$数据矩阵$X$,$p>>n$。为了减少数据的维数,我使用主成分分析,如下所示: 我执行SVD并找到矩阵U($n\times r$)和V($r\times p$),使得$X=UDV$,其中$D$是对角矩阵。现在,我使用矩阵$V$来减少$X$的维数,即使用PC分数$Z=XV^{\prime}$。我的问题是,在这种情况下,像“受限等距”这样的属性是否适用于投影数据点。特别是,如果我认为$x$的行是从一些分布中独立生成的,那么什么是最锐利的界限($M $,$M),对于下面的持有< /p>
$$m\|x\|^2\leq\|Vx\| ^2\leq m\|x\|^2?$

这个问题问得好,但您可能应该在“谢谢”网站上问。我应该这样做。因为它与机器学习有关,我认为它也有它的地位。是的,这是个边界。遗憾的是,我们不能直接在SO上使用Latex,但正因为如此,下次请使用不同的格式(比如将变量放在反勾号之间等)。事实上,在我看来,这是个好地方。对于帖子和脚本也很抱歉。我已经在math.stackexchange.com上发布了同样的消息。可能是,我也会在交叉验证中发布。这个问题很好,但你可能应该在“谢谢”网站上提问。我应该这样做。因为它与机器学习有关,我认为它也有它的地位。是的,这是个边界。遗憾的是,我们不能直接在SO上使用Latex,但正因为如此,下次请使用不同的格式(比如将变量放在反勾号之间等)。事实上,在我看来,这是个好地方。对于帖子和脚本也很抱歉。我已经在math.stackexchange.com上发布了同样的消息。可能吧,我也会在交叉验证中发布。