Machine learning 为什么多类逻辑回归给出的结果与在OvR分类器中选择最可能的标签不同?

Machine learning 为什么多类逻辑回归给出的结果与在OvR分类器中选择最可能的标签不同?,machine-learning,scikit-learn,multilabel-classification,Machine Learning,Scikit Learn,Multilabel Classification,我注意到,与单独使用SK learn的LogisticRegression分类器进行多类分类相比,使用SK learn的LogisticRegression分类器与下面的one vs rest分类器结合使用时,我的f分数略低 class MyOVRClassifier(sklearn.OneVsRestClassifier): """ This OVR classifier will always choose at least one label, regardless

我注意到,与单独使用SK learn的LogisticRegression分类器进行多类分类相比,使用SK learn的LogisticRegression分类器与下面的one vs rest分类器结合使用时,我的f分数略低

class MyOVRClassifier(sklearn.OneVsRestClassifier):
    """
    This OVR classifier will always choose at least one label,
    regardless of the probability
    """
    def predict(self, X):
        probs = self.predict_proba(X)[0]
        p_max = max(probs)
        return [tuple([self.classes_[i] for i, p in enumerate(probs) if p == p_max ])]

因为,我想知道什么因素可以解释性能的差异。我的one vs rest LR分类器似乎比LR分类器本身对其中一个类的预测更高。

只是猜测,但可能当“无人投票”时,您会得到许多微小的浮点值,而使用LR时,您最终会降到零。因此,你不是挑选最自信/最亲近的人,而是根据打破平局的0来挑选。请参见差异的示例

LR估计器在学习时使用一些随机性。它的随机种子可以显式设置。