Artificial intelligence 关于决策树的问题

Artificial intelligence 关于决策树的问题,artificial-intelligence,machine-learning,data-mining,decision-tree,Artificial Intelligence,Machine Learning,Data Mining,Decision Tree,在研究了一段时间的决策树之后,我注意到有一种叫做boosting的小技巧。我看到在正常情况下,它将提高决策树的准确性 所以我只是想知道,为什么我们不简单地将这种提升合并到我们构建的每个决策树中呢?由于目前我们将boosting作为一种单独的技术排除在外,所以我想:使用boosting是否比只使用单个决策树有任何缺点 谢谢你在这里帮助我 增压有几个缺点: 1-难以实施 2-他们比决策树更需要使用训练集进行广泛的训练 3-最糟糕的是,所有增强算法都需要一个阈值 在大多数情况下,这是不容易理解的,因为

在研究了一段时间的决策树之后,我注意到有一种叫做boosting的小技巧。我看到在正常情况下,它将提高决策树的准确性

所以我只是想知道,为什么我们不简单地将这种提升合并到我们构建的每个决策树中呢?由于目前我们将boosting作为一种单独的技术排除在外,所以我想:使用boosting是否比只使用单个决策树有任何缺点


谢谢你在这里帮助我

增压有几个缺点: 1-难以实施 2-他们比决策树更需要使用训练集进行广泛的训练 3-最糟糕的是,所有增强算法都需要一个阈值
在大多数情况下,这是不容易理解的,因为它需要大量的试错测试,因为知道boosting算法的整体性能取决于此阈值

boosting有几个缺点: 1-难以实施 2-他们比决策树更需要使用训练集进行广泛的训练 3-最糟糕的是,所有增强算法都需要一个阈值
在大多数情况下,这是不容易理解的,因为它需要大量的试错测试,知道boosting算法的整体性能取决于这个阈值

boosting是一种可以超越任何学习算法的技术。当您构建的原始分类器的性能仅略高于random时,它是最有效的。如果您的决策树已经很好了,那么boosting可能不会有太大的区别,但会带来性能损失——如果您运行boosting进行100次迭代,那么您必须训练并存储100棵决策树

通常,人们使用决策树桩(只有一个节点的决策树)进行增强,并获得与使用完整决策树进行增强一样好的结果


我用boosting做了一些研究,发现它相当健壮,比单树分类器好,但速度也慢(我过去迭代了10次),而且不如一些简单的学习者好(公平地说,它是一个非常嘈杂的数据集)

boosting是一种可以超越任何学习算法的技术。当您构建的原始分类器的性能仅略高于random时,它是最有效的。如果您的决策树已经很好了,那么boosting可能不会有太大的区别,但会带来性能损失——如果您运行boosting进行100次迭代,那么您必须训练并存储100棵决策树

通常,人们使用决策树桩(只有一个节点的决策树)进行增强,并获得与使用完整决策树进行增强一样好的结果


我用boosting做了一些研究,发现它相当健壮,比单树分类器好,但也比较慢(我过去用了10次迭代),而且不如一些简单的学习者好(公平地说,它是一个非常嘈杂的数据集)

您是否在谈论权重阈值,它决定了数据集中有多少用于培训弱势学习者?据我所知,这是一种性能增强剂,如果不确定,可以将其设置为100%。Weka对AdaBoost的实现没有任何其他可调整的权重阈值——您是在说权重阈值,它决定了要使用多少数据集来训练弱学习者?据我所知,这是一种性能增强剂,如果不确定,可以将其设置为100%。Weka的AdaBoost实现没有任何其他可调整的权重阈值--