Machine learning sklearn logloss参数规格化函数

Machine learning sklearn logloss参数规格化函数,machine-learning,scikit-learn,normalize,Machine Learning,Scikit Learn,Normalize,一个相当简单的问题:sklearn的log_损失度量的参数“normalize”做什么 根据:“normalize:bool,可选(默认值=True) 如果为true,则返回每个样本的平均损失。否则,返回每个样本损失的总和。“我的理解是,这与是否包含N有关,true是平均值,False是总和:logloss=-1/N(每个案例损失的总和) 如果是这样的话,优化一个或另一个并没有什么区别,那么,为什么我们更喜欢一个而不是另一个呢?换句话说,设置参数的意义是什么?个人偏好?虽然f(x)和1/N f

一个相当简单的问题:sklearn的log_损失度量的参数“normalize”做什么

根据:“normalize:bool,可选(默认值=True) 如果为true,则返回每个样本的平均损失。否则,返回每个样本损失的总和。“我的理解是,这与是否包含N有关,true是平均值,False是总和:logloss=-1/N(每个案例损失的总和)


如果是这样的话,优化一个或另一个并没有什么区别,那么,为什么我们更喜欢一个而不是另一个呢?换句话说,设置参数的意义是什么?个人偏好?

虽然f(x)和1/N f(x)的最小化是等效的,但当你处理形式为f(x)+αg(x)的函数与形式为1/N f(x)+αg(x)的函数时,常数的含义会发生变化,例如,当你学习正则化逻辑回归时,因此,在第二种情况下,等效alpha是1/N*先前的alpha。这里没有“一个选择”,它仅仅取决于应用——有时平均值更合适(当你需要对样本大小不变性时),有时求和。

虽然f(x)和1/N f(x)的最小化是等效的,但当你处理形式为f(x)+αg(x)的函数与形式为1/N f(x)+αg的函数时,常数的含义会发生变化(x) ,这发生在您学习正则化逻辑回归时,例如,在第二种情况下,等效alpha为1/N*先前的alpha。这里没有“一个选择”,它只是取决于应用程序-有时平均值更适合(当您需要对样本大小不变性时),有时求和