Python 在scikit learn(sklearn)中,功能在RFECV中的排名如何?
我使用递归特征消除和交叉验证(rfecv),以便为我拥有的几个特征(m=154)找到最佳精度分数 排名(Python 在scikit learn(sklearn)中,功能在RFECV中的排名如何?,python,machine-learning,scikit-learn,sklearn-pandas,Python,Machine Learning,Scikit Learn,Sklearn Pandas,我使用递归特征消除和交叉验证(rfecv),以便为我拥有的几个特征(m=154)找到最佳精度分数 排名(rfecv.ranking_)和相关分数(rfecv.grid_)让我感到困惑。正如您从前13个功能(排名前10)中所看到的,它们的排名不是以分数为基础的。我知道排名与交叉验证过程中如何以及何时排除该功能有关。那么分数与排名有什么关系呢?我希望排名最高的功能具有最高的分数 Features/Ranking/Scores b 1 0.692642743 a 1
rfecv.ranking_
)和相关分数(rfecv.grid_
)让我感到困惑。正如您从前13个功能(排名前10)中所看到的,它们的排名不是以分数为基础的。我知道排名与交叉验证过程中如何以及何时排除该功能有关。那么分数与排名有什么关系呢?我希望排名最高的功能具有最高的分数
Features/Ranking/Scores
b 1 0.692642743
a 1 0.606166207
f 1 0.568833672
i 1 0.54935204
l 2 0.607564808
j 3 0.613495238
e 4 0.626374391
l 5 0.581064621
d 6 0.611407556
c 7 0.570921354
h 8 0.570921354
k 9 0.576863707
g 10 0.576863707
\u grid\u得分
不是第i个特征的得分,而是估计器在使用第i个特征子集进行训练时产生的得分
要理解这意味着什么,请记住递归特征消除(RFE)的工作原理是训练模型,对其进行评估,然后删除步骤
最不重要的特征,然后重复
因此,\u grid\u score[-1]
将是针对所有特征训练的估计器的得分\u grid\u score[-2]
将是删除步骤
特征的估计器的得分\u grid\u score[-3]
将是删除2*步
特征的估计器的得分
因此,网格分数并不反映单个特征的分数。事实上,如果步长大于1,网格分数将小于特征分数。
\u网格分数
不是第i个特征的分数,而是估计器在使用第i个特征子集进行训练时产生的分数
要理解这意味着什么,请记住递归特征消除(RFE)的工作原理是训练模型,对其进行评估,然后删除步骤
最不重要的特征,然后重复
因此,\u grid\u score[-1]
将是针对所有特征训练的估计器的得分\u grid\u score[-2]
将是删除步骤
特征的估计器的得分\u grid\u score[-3]
将是删除2*步
特征的估计器的得分
因此,网格分数并不反映单个特征的分数。事实上,如果步长大于1,网格分数将比特征分数少。您误解了
网格分数和排名。它们没有任何关联。grid\u分数\uu
不是功能的分数。它们的分数是多少?你能详细说明一下吗?那么排名是多少呢?感谢您花时间。从文档中可以看出:“交叉验证分数使得网格分数[i]对应于第i个特征子集的CV分数。”它们并不代表特征分数。当选择某些特征时,它们代表估计器的得分。您会感到困惑,因为网格\u得分\uu
的大小与排名\uu
相同。将step
更改为大于1,以查看效果。您误解了grid\u分数和排名。它们没有任何关联。grid\u分数\uu
不是功能的分数。它们的分数是多少?你能详细说明一下吗?那么排名是多少呢?感谢您花时间。从文档中可以看出:“交叉验证分数使得网格分数[i]对应于第i个特征子集的CV分数。”它们并不代表特征分数。当选择某些特征时,它们代表估计器的得分。您会感到困惑,因为网格\u得分\uu
的大小与排名\uu
相同。将步骤更改为大于1,以查看效果。非常感谢!我如何知道每个子集中有哪些特征?这些特征按与排名相反的顺序被消除。不幸的是,您不知道排名第一的功能(即所选功能)中功能被删除的顺序。非常感谢!我如何知道每个子集中有哪些特征?这些特征按与排名相反的顺序被消除。不幸的是,您不知道在排名1的特征(即,所选特征)中消除特征的顺序。
Features/Ranking/Scores
b 1 0.692642743
a 1 0.606166207
f 1 0.568833672
i 1 0.54935204
l 2 0.607564808
j 3 0.613495238
e 4 0.626374391
l 5 0.581064621
d 6 0.611407556
c 7 0.570921354
h 8 0.570921354
k 9 0.576863707
g 10 0.576863707