Python 解读SKLDA的输出
我正在使用sklearn LatentDirichletAllocation包尝试进行一些主题建模 我的目标是在我的语料库中绘制主题如何随时间变化的情节 我试图复制的LDA部分,因此我有这样的代码结尾:Python 解读SKLDA的输出,python,scikit-learn,lda,Python,Scikit Learn,Lda,我正在使用sklearn LatentDirichletAllocation包尝试进行一些主题建模 我的目标是在我的语料库中绘制主题如何随时间变化的情节 我试图复制的LDA部分,因此我有这样的代码结尾: lda = LatentDirichletAllocation(n_topics=n_topics, max_iter=5, learning_method='online',
lda = LatentDirichletAllocation(n_topics=n_topics, max_iter=5,
learning_method='online',
learning_offset=50.,
random_state=0,
n_jobs=2)
t0 = time()
transformed_X = lda.fit_transform(tf)
当我看转换后的_X时,它是一个n_文档数组,每个主题的长度为n_。我希望每个数组都是该文档主题的概率分布,它们的总和为1。然而,情况并非如此,每个数组的和的平均值为83。所以,我想知道:
为什么不使用fit而不是fit\u transform?