Python 比较不同损失函数的偏差图

Python 比较不同损失函数的偏差图,python,scikit-learn,decision-tree,loss-function,Python,Scikit Learn,Decision Tree,Loss Function,我正在使用Scikit学习中的GradientBoostingRegressionor,希望比较不同损失函数的偏差图。假设我想比较最小二乘损失和最小绝对偏差(LAD)损失。我认为有必要将LAD损失平方(或取LS损失的平方根),否则他们将损失不同的功率。但是,当查看源代码中的Huber丢失时,这一点没有考虑在内。对我来说,把平方损失当作线性损失来对待似乎很奇怪 有人对此有想法吗

我正在使用Scikit学习中的
GradientBoostingRegressionor
,希望比较不同损失函数的偏差图。假设我想比较最小二乘损失和最小绝对偏差(LAD)损失。我认为有必要将LAD损失平方(或取LS损失的平方根),否则他们将损失不同的功率。但是,当查看源代码中的Huber丢失时,这一点没有考虑在内。对我来说,把平方损失当作线性损失来对待似乎很奇怪

有人对此有想法吗