Algorithm GBrank:最终的模型是什么?
我和一位同事无法就GBrank模型(培训后)应该是什么样子达成共识 导言 该方法首先执行从两两到逐点数据集的典型转换,其中目标变量z现在表示应该更高的分数,当i优先于j时,zi>zj。然后,作者建议使用梯度增强树,并“惩罚”模型预测zj>zj的情况,并且i优先于j。“惩罚”通过切换分数和增加或减少τ来执行 分歧 我们不同意的是梯度提升排名本身是否是一个合奏者。也就是说,我们培训的是gk还是香港 参考资料Algorithm GBrank:最终的模型是什么?,algorithm,machine-learning,scikit-learn,ranking,Algorithm,Machine Learning,Scikit Learn,Ranking,我和一位同事无法就GBrank模型(培训后)应该是什么样子达成共识 导言 该方法首先执行从两两到逐点数据集的典型转换,其中目标变量z现在表示应该更高的分数,当i优先于j时,zi>zj。然后,作者建议使用梯度增强树,并“惩罚”模型预测zj>zj的情况,并且i优先于j。“惩罚”通过切换分数和增加或减少τ来执行 分歧 我们不同意的是梯度提升排名本身是否是一个合奏者。也就是说,我们培训的是gk还是香港 参考资料 原文: h在整篇文章中用于表示您正在处理的假设,g只是一个用于构造h的领域特定回归模型,
- 原文:
h在整篇文章中用于表示您正在处理的假设,g只是一个用于构造h的领域特定回归模型,因此GBRank是hk。特别是,它是一种增强方法,因此它必须是一个集合,通过从一组弱学习者中构建一个强学习者来进行训练(从80年代后期Kearns和Valiant提出的增强定义),h是一个集合(由于循环定义),g不是(因为它只是在一些转换数据集上训练的回归器)。谢谢,这是我的解释,正如你所说,我在互联网上找到了一个实现。最初的猜测h_0对结果的影响如此之大,这不是有点奇怪吗?(AFAIK eta是一个小值,如0.05)因此,当他们在第2步中说“使用GBT拟合回归函数”时,这是误导性的/不正确的,实际上整个集合都是GBT?