Machine learning 多项式朴素贝叶斯中coef_uu和feature_ulog_uprob_uu的区别?

Machine learning 多项式朴素贝叶斯中coef_uu和feature_ulog_uprob_uu的区别?,machine-learning,scikit-learn,classification,naivebayes,multinomial,Machine Learning,Scikit Learn,Classification,Naivebayes,Multinomial,下面的代码表示学习多项式朴素贝叶斯 import numpy as np from sklearn.naive_bayes import MultinomialNB X = np.random.randint(5, size=(10, 100)) y=np.random.randint(2,size=(10,)) clf = MultinomialNB() clf.fit(X, y) 然后我想找出我的模型和sklearn文档中的重要特性,我们有两个参数,即 feature_log_prob_

下面的代码表示学习多项式朴素贝叶斯

import numpy as np
from sklearn.naive_bayes import MultinomialNB
X = np.random.randint(5, size=(10, 100))
y=np.random.randint(2,size=(10,))
clf = MultinomialNB()
clf.fit(X, y)
然后我想找出我的模型和sklearn文档中的重要特性,我们有两个参数,即

 feature_log_prob_ : array, shape (n_classes, n_features)
 Empirical log probability of features given a class, P(x_i|y).

coef_ : array, shape (n_classes, n_features)
Mirrors feature_log_prob_ for interpreting MultinomialNB as a linear model.
然后,如果我尝试打印这两个属性

print(clf.feature_log_prob_.shape)  // giving (2,100)
print(clf.coef_.shape)         // giving (1,100)
但是当我的类多于两个时,两个属性给出相同的结果。


上述两个属性之间的区别是什么?

在标准二进制分类中
coef\ucode>提供了观察“成功”类别的概率。在多项式情况下,
coef\uu
返回观察每个结果的概率,即对于所有类别,它将返回prob分数