Scikit learn scikit学习参考请求:树的功能重要性

Scikit learn scikit学习参考请求:树的功能重要性,scikit-learn,Scikit Learn,我试图理解回归树(以及它们的集成对应物)的特征重要性是如何计算的。我正在查看/sklearn/tree/\u tree.pyx中函数compute\u feature\u importances的源代码,无法完全遵循逻辑,并且没有参考 抱歉,这可能是一个非常基本的问题,但我找不到一个很好的参考文献,我希望有人能给我指出正确的方向,或者快速解释代码,以便我继续挖掘 谢谢参考资料在文档中,而不是代码中: `feature_importances_` : array of shape = [n_fea

我试图理解回归树(以及它们的集成对应物)的特征重要性是如何计算的。我正在查看
/sklearn/tree/\u tree.pyx
中函数
compute\u feature\u importances
的源代码,无法完全遵循逻辑,并且没有参考

抱歉,这可能是一个非常基本的问题,但我找不到一个很好的参考文献,我希望有人能给我指出正确的方向,或者快速解释代码,以便我继续挖掘


谢谢

参考资料在文档中,而不是代码中:

`feature_importances_` : array of shape = [n_features]
    The feature importances. The higher, the more important the
    feature. The importance of a feature is computed as the (normalized)
    total reduction of the criterion brought by that feature.  It is also
    known as the Gini importance [4]_.

.. [4] L. Breiman, and A. Cutler, "Random Forests",
       http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm

我不熟悉sklearn中的决策树。R包中也有类似的功能。在这种情况下,它有很好的文档记录。谢谢Donebeo,我将对此进行调查。谢谢,这正是我想要的。