Python 3.x RandomForestClassifier不同于BaggingClassifier
使用baseestimator=RandomForestClassifier的BaggingClassifier与sklearn中的RandomForestClassifier有何不同?RandomForestClassifier与BaggingClassifier一样,通过bagging从外部引入了与单个树拟合相关的随机性Python 3.x RandomForestClassifier不同于BaggingClassifier,python-3.x,scikit-learn,random-forest,Python 3.x,Scikit Learn,Random Forest,使用baseestimator=RandomForestClassifier的BaggingClassifier与sklearn中的RandomForestClassifier有何不同?RandomForestClassifier与BaggingClassifier一样,通过bagging从外部引入了与单个树拟合相关的随机性 然而,它通过对候选分割特征列表进行子采样,将随机性也注入到树构造过程的深处:在每个新分割处考虑一组新的随机特征。这种随机性是通过RandomForestClassifier
然而,它通过对候选分割特征列表进行子采样,将随机性也注入到树构造过程的深处:在每个新分割处考虑一组新的随机特征。这种随机性是通过RandomForestClassifier的max_features参数控制的,该参数在BaggingClassifier中没有等效项base_estimator=DecisionTreeClassier。我想你是说BaggingClassifier的base_estimator=DecisionTreeClassier对吗?base_estimator=RandomForestClassifier,我们不能使用它吗?你可以,但我看不出有什么意义。但是BaggingClassifier也有参数max_特性?那么它有什么不同呢?对于n_估计器=500 BaggingClassifier,它不起作用,但在RandomForestClassifier中,它起作用。我想知道是什么原因导致这两种情况下的时间和内存差异如此之大。BaggingClassifier的特征采样是对每棵树进行一次特征采样操作。RandomForestClassifier的特征采样是对树中的每个分割/节点进行一次独立的特征采样。谢谢,消除了一些疑问,这是一个需要探索和理解的大领域!: