Scikit learn sklearn metrics.log损失与得分成正比';负对数损失';是否定的

Scikit learn sklearn metrics.log损失与得分成正比';负对数损失';是否定的,scikit-learn,metrics,Scikit Learn,Metrics,确保我做对了这一点: 如果我们使用独立的,即log_loss(y_true,y_pred),它会生成一个正分数——分数越小,性能越好 然而,如果我们使用“cross_val_score”中的评分方案,则分数为负——分数越大,表现越好 这是因为评分方案与其他评分方案是一致的。因为通常情况下,越高越好,我们否定了通常的对数损失以符合趋势。这样做完全是为了这个目的。这种理解正确吗 [背景:metric.log_损失得分为正,而“neg_los_损失”得分为负,两者均参考同一文档页。]sklearn.m

确保我做对了这一点:

如果我们使用独立的,即log_loss(y_true,y_pred),它会生成一个正分数——分数越小,性能越好

然而,如果我们使用“cross_val_score”中的评分方案,则分数为负——分数越大,表现越好

这是因为评分方案与其他评分方案是一致的。因为通常情况下,越高越好,我们否定了通常的对数损失以符合趋势。这样做完全是为了这个目的。这种理解正确吗


[背景:metric.log_损失得分为正,而“neg_los_损失”得分为负,两者均参考同一文档页。]
sklearn.metrics.log_loss
是通常定义的误差度量的一种实现,大多数误差度量都是正数。在这种情况下,它是一种通常最小化的度量(例如回归的均方误差),而不是最大化的精度等度量


因此,
neg_log_loss
是一种创建效用值的技术,它允许优化sklearn函数和类,以最大限度地提高该效用,而无需更改每个度量的函数行为(例如名为
cross\u val\u score
GridSearchCV
randomizedsarchcv
,等等)。

我想知道同样的事情,所以,
neg\u log\u loss
简单地等于
-log\u loss
?是的,
neg\u log\u loss
简单地等于
-log\u loss
,如它所说的那样:因此,度量模型和数据之间距离的度量[…]返回度量的负值。”