Python:如何使用SKlearn使用多项式逻辑回归
我有一个测试数据集和训练数据集,如下所示。我提供了一个包含min记录的示例数据,但我的数据包含1000多条记录。这里E是我的目标变量,我需要用一个算法来预测它。它只有四个类别,如1、2、3、4。它只能接受这些值中的任何一个 培训数据集:Python:如何使用SKlearn使用多项式逻辑回归,python,scikit-learn,logistic-regression,data-analysis,Python,Scikit Learn,Logistic Regression,Data Analysis,我有一个测试数据集和训练数据集,如下所示。我提供了一个包含min记录的示例数据,但我的数据包含1000多条记录。这里E是我的目标变量,我需要用一个算法来预测它。它只有四个类别,如1、2、3、4。它只能接受这些值中的任何一个 培训数据集: A B C D E 1 20 30 1 1 2 22 12 33 2 3 45 65 77 3 12 43 55 65 4 11 25 30 1 1
A B C D E
1 20 30 1 1
2 22 12 33 2
3 45 65 77 3
12 43 55 65 4
11 25 30 1 1
22 23 19 31 2
31 41 11 70 3
1 48 23 60 4
测试数据集:
A B C D E
11 21 12 11
1 2 3 4
5 6 7 8
99 87 65 34
11 21 24 12
因为E只有4个类别,我想用多项式逻辑回归(1 vs Rest逻辑)来预测这一点。我正在尝试使用python实现它
我知道我们需要在变量中设置这些目标并使用算法来预测这些值的逻辑:
output = [1,2,3,4]
但是我在如何使用python(sklearn)循环遍历这些值以及应该使用什么算法来预测输出值这一点上陷入了困境?任何帮助都将不胜感激可以直接处理多个类
X = df[['A', 'B', 'C', 'D']]
y = df['E']
lr = LogisticRegression()
lr.fit(X, y)
preds = lr.predict(X) # will output array with integer values.
你可以试试
LogisticRegression(multi_class='multinomial',solver ='newton-cg').fit(X_train,y_train)
本教程应该是一个很好的开始,它也是在datascience@amirouche上被问到的,这似乎是同一个OP问了同样的问题。这与这个问题的现有答案本质上不一样吗?这是多类的吗?看起来更像是一个多标签解决方案