Machine learning Logistic回归学习获得分类系数

Machine learning Logistic回归学习获得分类系数,machine-learning,scikit-learn,logistic-regression,Machine Learning,Scikit Learn,Logistic Regression,我正在做多类分类,并对其应用逻辑回归 当我通过调用 logistic.fit(InputDATA,OutputDATA) 估计值“逻辑”与数据相符 现在,当我调用logistic.coef时,它会打印一个2D数组 有4行(我有四个类)和n列(每个特性一个) 这是我在SCIKIT学习网站上看到的: 系数:阵列、形状(n个特征)或(n个目标、n个特征) 线性回归问题的估计系数。如果多个 在拟合过程中传递目标(y 2D),这是形状的2D阵列 (n_目标,n_特征),而如果只传递了一个目标,则这是一个

我正在做多类分类,并对其应用逻辑回归

当我通过调用

logistic.fit(InputDATA,OutputDATA)
估计值“逻辑”与数据相符

现在,当我调用logistic.coef时,它会打印一个2D数组 有4行(我有四个类)和n列(每个特性一个)

这是我在SCIKIT学习网站上看到的:

系数:阵列、形状(n个特征)或(n个目标、n个特征) 线性回归问题的估计系数。如果多个 在拟合过程中传递目标(y 2D),这是形状的2D阵列 (n_目标,n_特征),而如果只传递了一个目标,则这是一个 长度n_特征的一维数组

现在我的问题是:
为什么不同的类有不同的系数,因为我只需要一个预测输出的假设。

因为有一个多类案例(>2个案例),所以应用了一对一策略。 sklearn创建了4个Classifier,而不仅仅是1个。 因此你有4个假设和4个系数


注意:我对逻辑回归分类器没有任何线索,但sklearn SVM就是这样工作的。

您将根据L1或L2正则化得到输入特征的系数。如果不指定L1或L2,则模型将假定L2。您可以将这些系数用于模型优化或特征工程

非常感谢。我现在就知道了。现在使用四个分类器,其中一个具有最大概率形成输出类。因此,logistic.predict是否使用此方法选择适当的分类器??在训练阶段生成了4个分类器。一个将A与BCD分开,一个将B与ACD分开,依此类推。将一个新样本(即predict())输入所有四个分类器。支持率最高的分类器获胜。例如,您的新类是C,那么C与ABD分类器的概率高于其他分类器。C是predict()的返回值。