Machine learning 基于朴素贝叶斯假设的特征和类之间的互信息

Machine learning 基于朴素贝叶斯假设的特征和类之间的互信息,machine-learning,naivebayes,Machine Learning,Naivebayes,我正在阅读Irina Rish()的一篇论文,我想知道符号I(C;(X1,X2))是什么,即特征和类之间的互信息,以及Inb(C;(X1,X2))是什么,即根据朴素贝叶斯假设计算的相同数量。更重要的是,我将如何在如下所示的训练集上进行计算? 可能需要迁移到stats。你说的stats是什么意思?好的,谢谢……不过,我一直在做一些挖掘,根据我的理解(X1,X2)表示“联合随机变量”。因此I(C;(X1,X2))只是表示类标签和训练集的联合随机变量之间的互信息,现在我要做的就是找出如何计算联合随机

我正在阅读Irina Rish()的一篇论文,我想知道符号I(C;(X1,X2))是什么,即特征和类之间的互信息,以及Inb(C;(X1,X2))是什么,即根据朴素贝叶斯假设计算的相同数量。更重要的是,我将如何在如下所示的训练集上进行计算?


可能需要迁移到stats。你说的stats是什么意思?好的,谢谢……不过,我一直在做一些挖掘,根据我的理解(X1,X2)表示“联合随机变量”。因此I(C;(X1,X2))只是表示类标签和训练集的联合随机变量之间的互信息,现在我要做的就是找出如何计算联合随机变量。。。。。如果我错了,请纠正我可能需要迁移到stats。你说的stats是什么意思?好的,谢谢……尽管我一直在做一些挖掘,根据我的理解(X1,X2)表示“联合随机变量”。因此I(C;(X1,X2))只是表示类标签和训练集的联合随机变量之间的互信息,现在我要做的就是找出如何计算联合随机变量。。。。。如果我错了,请纠正我