Regression 如何在xgboost中获得回归预测的方差?
我想通过观察方差来知道预测有多好。xgboost是否为回归提供方差输出?我不确定您是否可以直接估计方差,但您可以尝试使用来估计与方差相关的方差。然后,不用估计预测变量的平均值,你可以估计第75百分位和第25百分位,然后找到IQR=p_75-p_25Regression 如何在xgboost中获得回归预测的方差?,regression,xgboost,Regression,Xgboost,我想通过观察方差来知道预测有多好。xgboost是否为回归提供方差输出?我不确定您是否可以直接估计方差,但您可以尝试使用来估计与方差相关的方差。然后,不用估计预测变量的平均值,你可以估计第75百分位和第25百分位,然后找到IQR=p_75-p_25 这在python中为XGBoost提供了分位数回归的实现,基本上归结为使用a作为代价函数,而不是通常的均方误差。XGBoost适用于几种不同的语言,您对语言有什么偏好吗?不太喜欢,目前我使用的是绑定,你对什么样的变化感兴趣?从某种意义上说,它的评估依
这在python中为XGBoost提供了分位数回归的实现,基本上归结为使用a作为代价函数,而不是通常的均方误差。XGBoost适用于几种不同的语言,您对语言有什么偏好吗?不太喜欢,目前我使用的是绑定,你对什么样的变化感兴趣?从某种意义上说,它的评估依据是什么?我不知道GBMs有专门的过程,因为learnig迭代是增量的。相比之下,在随机森林模型中,我们可以简单地评估所有树的方差(主要预测是相同树的平均值),给定当前叶,我只需要计算当前叶中所有数据点的方差,对吗?但存在集成树的问题,在那里它将有多片叶子和一些树之间的加权平均值