Python 对稀疏和密集矩阵使用sklearn随机化PCA时的不同结果

Python 对稀疏和密集矩阵使用sklearn随机化PCA时的不同结果,python,numpy,scipy,scikit-learn,Python,Numpy,Scipy,Scikit Learn,当随机PCA使用稀疏和密集矩阵时,我得到了不同的结果: import numpy as np import scipy.sparse as scsp from sklearn.decomposition import RandomizedPCA x = np.matrix([[1,2,3,2,0,0,0,0], [2,3,1,0,0,0,0,3], [1,0,0,0,2,3,2,0], [3,0,0,0,

随机PCA
使用稀疏和密集矩阵时,我得到了不同的结果:

import numpy as np
import scipy.sparse as scsp
from sklearn.decomposition import RandomizedPCA

x = np.matrix([[1,2,3,2,0,0,0,0],
               [2,3,1,0,0,0,0,3],
               [1,0,0,0,2,3,2,0],
               [3,0,0,0,4,5,6,0],
               [0,0,4,0,0,5,6,7],
               [0,6,4,5,6,0,0,0],
               [7,0,5,0,7,9,0,0]])

csr_x = scsp.csr_matrix(x)

s_pca = RandomizedPCA(n_components=2)
s_pca_scores = s_pca.fit_transform(csr_x)
s_pca_weights = s_pca.explained_variance_ratio_

d_pca = RandomizedPCA(n_components=2)
d_pca_scores = s_pca.fit_transform(x)
d_pca_weights = s_pca.explained_variance_ratio_

print 'sparse matrix scores {}'.format(s_pca_scores)
print 'dense matrix scores {}'.format(d_pca_scores)
print 'sparse matrix weights {}'.format(s_pca_weights)
print 'dense matrix weights {}'.format(d_pca_weights)
结果:

sparse matrix scores [[  1.90912166   2.37266113]
 [  1.98826835   0.67329466]
 [  3.71153199  -1.00492408]
 [  7.76361811  -2.60901625]
 [  7.39263662  -5.8950472 ]
 [  5.58268666   7.97259172]
 [ 13.19312194   1.30282165]]
dense matrix scores [[-4.23432815  0.43110596]
 [-3.87576857 -1.36999888]
 [-0.05168291 -1.02612363]
 [ 3.66039297 -1.38544473]
 [ 1.48948352 -7.0723618 ]
 [-4.97601287  5.49128164]
 [ 7.98791603  4.93154146]]
sparse matrix weights [ 0.74988508  0.25011492]
dense matrix weights [ 0.55596761  0.44403239]

密集版本给出了正常PCA的结果,但当矩阵稀疏时会发生什么?为什么结果不同?

在稀疏数据的情况下,
随机化PCA
不会集中数据(平均删除),因为它可能会占用大量内存。这可能解释了你观察到的情况

我同意这个“特性”的文档记录很差。请随时在github上报告问题,以跟踪问题并改进文档


编辑:我们修复了scikit learn 0.15中的差异:对于稀疏数据,RandomizedPCA不受欢迎。取而代之的是使用与PCA相同的截断SVD,而不尝试将数据居中。

我认为不贬低内存使用是有意义的,多亏了这一点,但贬低不会影响权重(特征值),贬低只会影响分数。然而,我的特征值是显著不同的,所以一定有别的事情发生。