Python LDA生成的主题

Python LDA生成的主题,python,machine-learning,lda,topic-modeling,gensim,Python,Machine Learning,Lda,Topic Modeling,Gensim,因此,我与gensim和LDA的合作相对较新,大约在两周前开始,我很难相信这些结果。以下是使用11个1段文档生成的主题 主题0(0.500):0.059*岛屿+0.059*世界+0.057*计算机+0.056*总统+0.053*帖子+0.047*帖子+0.046*蒂华纳+0.045*副+0.045*推特+0.045*总统 2015-06-04 16:22:07891:信息:主题1(0.500):0.093*计算机+0.064*世界+0.060*职位+0.053*欧元区+0.052*月+0.049

因此,我与gensim和LDA的合作相对较新,大约在两周前开始,我很难相信这些结果。以下是使用11个1段文档生成的主题

主题0(0.500):0.059*岛屿+0.059*世界+0.057*计算机+0.056*总统+0.053*帖子+0.047*帖子+0.046*蒂华纳+0.045*副+0.045*推特+0.045*总统

2015-06-04 16:22:07891:信息:主题1(0.500):0.093*计算机+0.064*世界+0.060*职位+0.053*欧元区+0.052*月+0.049*提华纳+0.048*岛屿+0.046*加薪+0.044*利率+0.042*年


这些话题似乎不太正确。事实上,它们看起来几乎毫无意义。我应该如何准确地阅读这些结果?另外,两个主题的主题分布完全相同是否正常

那么,您只有11个文档,并试图从中获取2个主题?可能是没有足够的数据,但尝试迭代更多

顺便问一句,每次迭代后,负对数可能性还是困惑度都会下降


只要看看结果,我想如果你迭代更多,你就会得到正确的结果,因为算法已经在一个主题中正确地把语义相近的东西放在一起了。(帖子、帖子、推特;月、年)

它们在什么方面看起来是荒谬的?它们似乎是荒谬的,因为每个主题的标记似乎没有那么相关,我无法为这两个主题中的每一个做出一般的“叙述”