Python 逻辑回归-对数损失值

Python 逻辑回归-对数损失值,python,scikit-learn,Python,Scikit Learn,在评估逻辑回归的模型性能时,我被告知使用对数损失度量是正常的,因为我正在评估给定记录的概率为0或1(二元分类) 当我更改输入参数时,Logloss的值通常在0-1范围内变化 在我正在解决的问题的上下文中,我有这行代码 LR = LogisticRegression(C=rangeC[n-1], solver='liblinear').fit(X_train,y_train) C是正则化强度的倒数,这是一个用于避免对当前数据集过度拟合的参数。在这个问题中,它的值在0.01到0.99之间变化 当我

在评估逻辑回归的模型性能时,我被告知使用对数损失度量是正常的,因为我正在评估给定记录的概率为0或1(二元分类)

当我更改输入参数时,Logloss的值通常在0-1范围内变化

在我正在解决的问题的上下文中,我有这行代码

LR = LogisticRegression(C=rangeC[n-1], solver='liblinear').fit(X_train,y_train)
C是正则化强度的倒数,这是一个用于避免对当前数据集过度拟合的参数。在这个问题中,它的值在0.01到0.99之间变化

当我输出Logloss度量时,我得到的值与范围[0-1]太远

在sklearn lib中发生这种情况正常吗?我怎样才能避免呢

编辑:问题已解决。

我忘了提到传递给logloss度量的值

我在做什么

log_loss(ytest, yhat)
Y测试是实际值,Y是集合的预测值

碰巧日志丢失接收到

log_loss(ytest, yhat_proba)
yhat_概率(在逻辑回归的上下文中)是一个二维数组,每个记录的概率类别为0和1

例如:[[0.41 0.59]…[0.6 0.4]]

最后我得到了想要的图表:


logloss不限于[0,1]。@BenReiniger logloss在我工作的上下文中限于[0,1]间隔(逻辑回归-二元分类)。即使从图表上我们也可以看出有些事情做得不正确,它应该输出一个对数函数,这是一条曲线。。。