Machine learning 强分类器的boosting效应

Machine learning 强分类器的boosting效应,machine-learning,adaboost,Machine Learning,Adaboost,使用强(而不是弱,错误率接近随机)分类器进行增强的效果如何?强分类器自身是否可能比在adaboost中与一组弱分类器一起使用时表现更好?是的,这是可能的。这一切都取决于您的学习数据集。看看无免费午餐定理,总有数据集不适合特定的算法/启发式(甚至是这些算法的组合) 当您在不同的数据集上使用相同错误率的算法时,boosting会让事情变得更有趣。分类器应该是强的或弱的这一事实并不会改变boosting的好处。但在升力定理的基础上,指出它的下限是弱分类器的一簇。如果使用弱分类器,它将不起作用 在我的经

使用强(而不是弱,错误率接近随机)分类器进行增强的效果如何?强分类器自身是否可能比在adaboost中与一组弱分类器一起使用时表现更好?

是的,这是可能的。这一切都取决于您的学习数据集。看看无免费午餐定理,总有数据集不适合特定的算法/启发式(甚至是这些算法的组合)

当您在不同的数据集上使用相同错误率的算法时,boosting会让事情变得更有趣。分类器应该是强的或弱的这一事实并不会改变boosting的好处。但在升力定理的基础上,指出它的下限是弱分类器的一簇。如果使用弱分类器,它将不起作用

在我的经验中,我从未发现过这样一个问题:我发现了一个如此好/强大的分类器,以至于任何其他分类器(比随机分类器更好)都无法在某些数据集上提高性能