Machine learning 梯度增强树如何计算分类中的错误?

Machine learning 梯度增强树如何计算分类中的错误?,machine-learning,gbm,Machine Learning,Gbm,当我们在前一个模型的残差基础上建立下一个模型时,我理解了梯度推进是如何对回归起作用的——如果我们使用线性回归,那么它将是残差作为下一个模型的目标,然后在最后对所有模型求和,以得到一个强大的学习者 但如何在梯度增强的分类树中实现这一点呢?假设我们有一个结果为0/1的二元分类模型-下一个模型的剩余误差是多少?它是如何计算的,因为它不会像线性回归那样是y减去y预测的 我真的被这件事难住了!一个二叉分类树的错误就是它错误分类的错误——那么下一个模型的目标仅仅是错误分类的点吗 二元分类可以作为预测概率的回

当我们在前一个模型的残差基础上建立下一个模型时,我理解了梯度推进是如何对回归起作用的——如果我们使用线性回归,那么它将是残差作为下一个模型的目标,然后在最后对所有模型求和,以得到一个强大的学习者

但如何在梯度增强的分类树中实现这一点呢?假设我们有一个结果为0/1的二元分类模型-下一个模型的剩余误差是多少?它是如何计算的,因为它不会像线性回归那样是y减去y预测的


我真的被这件事难住了!一个二叉分类树的错误就是它错误分类的错误——那么下一个模型的目标仅仅是错误分类的点吗

二元分类可以作为预测概率的回归问题,例如p(y=1 | x),其中y是类标签。您可以使用日志损失(逻辑损失)而不是平方损失来实现此功能。

这不是一个编程问题,因此可以说是离题了;关于ML和相关算法的一般和理论方面的问题应该发布在。我不能在那里提问,我没有代表???你不需要任何代表来回答问题!