Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/296.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 基于相关矩阵的大型稀疏矩阵主成分分析_Python_Matlab_Numpy_Machine Learning_Sparse Matrix - Fatal编程技术网

Python 基于相关矩阵的大型稀疏矩阵主成分分析

Python 基于相关矩阵的大型稀疏矩阵主成分分析,python,matlab,numpy,machine-learning,sparse-matrix,Python,Matlab,Numpy,Machine Learning,Sparse Matrix,我有一个大的(500k乘500k)稀疏矩阵。我想得到它的主要组成部分(事实上,即使只计算最大的个人电脑也可以)。随机化PCA工作得很好,除了它本质上是寻找协方差矩阵的特征向量,而不是相关矩阵。有没有关于使用大型稀疏矩阵的协方差矩阵来查找PCA的软件包的想法?最好使用python,尽管matlab和R也可以使用 (为了便于参考,提出了一个类似的问题,但这些方法是指协方差矩阵)。它们不是一回事吗?据我所知,相关矩阵只是由每个变量的标准偏差乘积归一化的协方差矩阵。而且,如果我没记错的话,PCA中不存在

我有一个大的(500k乘500k)稀疏矩阵。我想得到它的主要组成部分(事实上,即使只计算最大的个人电脑也可以)。随机化PCA工作得很好,除了它本质上是寻找协方差矩阵的特征向量,而不是相关矩阵。有没有关于使用大型稀疏矩阵的协方差矩阵来查找PCA的软件包的想法?最好使用python,尽管matlab和R也可以使用


(为了便于参考,提出了一个类似的问题,但这些方法是指协方差矩阵)。

它们不是一回事吗?据我所知,相关矩阵只是由每个变量的标准偏差乘积归一化的协方差矩阵。而且,如果我没记错的话,PCA中不存在缩放模糊吗?

你有没有在R-“IRLBA包是该方法的R语言实现。使用它,您可以计算超大规模数据的部分SVD和主成分分析。该软件包适用于稀疏矩阵和其他矩阵类,如Bigmemory软件包提供的矩阵类