Python 解读SKLDA的输出

Python 解读SKLDA的输出,python,scikit-learn,lda,Python,Scikit Learn,Lda,我正在使用sklearn LatentDirichletAllocation包尝试进行一些主题建模 我的目标是在我的语料库中绘制主题如何随时间变化的情节 我试图复制的LDA部分,因此我有这样的代码结尾: lda = LatentDirichletAllocation(n_topics=n_topics, max_iter=5, learning_method='online',

我正在使用sklearn LatentDirichletAllocation包尝试进行一些主题建模

我的目标是在我的语料库中绘制主题如何随时间变化的情节

我试图复制的LDA部分,因此我有这样的代码结尾:

lda = LatentDirichletAllocation(n_topics=n_topics, max_iter=5,
                                learning_method='online',
                                learning_offset=50.,
                                random_state=0,
                                n_jobs=2)
t0 = time()
transformed_X = lda.fit_transform(tf)
当我看转换后的_X时,它是一个n_文档数组,每个主题的长度为n_。我希望每个数组都是该文档主题的概率分布,它们的总和为1。然而,情况并非如此,每个数组的和的平均值为83。所以,我想知道:

  • 这些值代表什么
  • 如果我规范化数组中的值,这是否与该文档的主题概率分布相对应

  • 为什么不使用fit而不是fit\u transform?