Scikit learn 随机回归器,特征重要性

Scikit learn 随机回归器,特征重要性,scikit-learn,random-forest,feature-selection,Scikit Learn,Random Forest,Feature Selection,我使用随机森林回归器,有43个特征。 当我运行以下代码时: print(clf.feature_importances_) 我得到下一个结果: [0. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.] 我知道多少,我的随机森林模型只使用一个特征来预测结果 是否正常?根据标签值绘制每个功能,

我使用随机森林回归器,有43个特征。 当我运行以下代码时:

print(clf.feature_importances_)
我得到下一个结果:

[0. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
我知道多少,我的随机森林模型只使用一个特征来预测结果


是否正常?

根据标签值绘制每个功能,并手动查看模型正在查看的内容以分析结果。还要检查你的模型的准确性,如果不是很高,这也可能是你看到奇怪结果的原因

你能把你试过的代码贴出来吗?就像你有一个直接对应目标的功能一样。您是否确定功能不包含任何只有在目标已知后才能知道的内容,或者您可能错误地将目标值用作功能中的列?