Machine learning PCA的输出是什么?它是如何有用的?

Machine learning PCA的输出是什么?它是如何有用的?,machine-learning,pca,eigenvector,dimensionality-reduction,data-presentation,Machine Learning,Pca,Eigenvector,Dimensionality Reduction,Data Presentation,PCA是一种降维算法,有助于降低数据的维数。 我不明白的是,PCA以降序给出特征向量的输出,如PC1、PC2、PC3等等。因此,这将成为我们数据的新轴心 我们在哪里可以应用这个新轴来预测测试集数据 我们实现了从n到一些n-k的降维 如何从数据中获取最有用的变量,并从数据中删除不重要的列? PCA是否有替代方法? PCA的思想是将维数减少到由方差最大的n-k特征向量创建的子空间,从而在映射到新子空间的数据中产生最大方差 此外,在不知道训练数据的类别的情况下,可以使用PCA降低维度,这意味着它是无监

PCA是一种降维算法,有助于降低数据的维数。 我不明白的是,PCA以降序给出特征向量的输出,如PC1、PC2、PC3等等。因此,这将成为我们数据的新轴心

我们在哪里可以应用这个新轴来预测测试集数据

我们实现了从n到一些n-k的降维

如何从数据中获取最有用的变量,并从数据中删除不重要的列? PCA是否有替代方法?
PCA的思想是将维数减少到由方差最大的n-k特征向量创建的子空间,从而在映射到新子空间的数据中产生最大方差

此外,在不知道训练数据的类别的情况下,可以使用PCA降低维度,这意味着它是无监督的

如果您知道培训数据的类别,另一种选择是使用LDA,它试图找到最大化类别间差异的特征空间


希望这有帮助

这不是问题@Mathias。我真正的怀疑是,假设取10个特征的数据,我们将其缩减为3维。因此,新的维度与我们的实际数据完全不同。从PCA中我们可以知道哪些特征是最重要的?PCA不考虑哪些特征对于分类是好的,因为它是一种无监督的方法,维度缩减仅基于特征空间中的最大方差。因此,您将只知道哪些特性具有最大的差异。你不知道哪些特征适合分类,但你知道哪些特征方差最大。我们可以使用标准差从基本公式中找出方差最大的特征。我想知道PCA的确切目的是什么?是要在二维平面上可视化100维绘图吗?PCA没有找到原始数据空间中方差最大的特征,它找到了在数据中产生最大方差的所有特征的组合。是的,连接数据可能是一个目的,或者只是为了减少必须处理的数据量。