Machine learning 主成分分析与特征去除

Machine learning 主成分分析与特征去除,machine-learning,principal-components,Machine Learning,Principal Components,我是机器学习的新手,刚刚被介绍到主成分分析作为一种降维方法。我不明白的是,在什么情况下PCA比简单地从模型中删除一些特征更好?如果目标是获得低维数据,为什么我们不将那些相关的特征分组,并从每组中保留一个特征?特征缩减(如PCA)和特征选择(如您所描述的)之间存在根本区别。关键区别在于,特征约简(PCA)通过所有原始维度的投影将数据映射到较低维度,例如,PCA使用每个维度的线性组合。因此,最终的数据嵌入包含来自所有特征的信息。如果您执行功能选择您放弃信息,则您将完全丢失其中存在的任何内容。此外,P

我是机器学习的新手,刚刚被介绍到主成分分析作为一种降维方法。我不明白的是,在什么情况下PCA比简单地从模型中删除一些特征更好?如果目标是获得低维数据,为什么我们不将那些相关的特征分组,并从每组中保留一个特征?

特征缩减(如PCA)和特征选择(如您所描述的)之间存在根本区别。关键区别在于,特征约简(PCA)通过所有原始维度的投影将数据映射到较低维度,例如,PCA使用每个维度的线性组合。因此,最终的数据嵌入包含来自所有特征的信息。如果您执行功能选择放弃信息,则您将完全丢失其中存在的任何内容。此外,PCA保证保留数据方差的给定部分。

这是一个好问题,但更适合于StackOverflow的stats/ML同级。据我所知,PCA消除了相关的维度,即线性相关维度。这就是说,投射所有这些维度似乎并没有保留更多的信息,而只是将它们丢弃。。。我遗漏了什么吗?这和PCA无关。主成分分析寻找保留大部分方差的线性投影。它不会“消除”任何尺寸。