Machine learning 用于分类和回归递归特征消除的模型
对于Machine learning 用于分类和回归递归特征消除的模型,machine-learning,scikit-learn,regression,classification,feature-selection,Machine Learning,Scikit Learn,Regression,Classification,Feature Selection,对于分类和回归,我们可以使用哪些模型进行递归特征消除 例如,我们可以使用 selector = RFE(RandomForestClassifier(), 5) 分类 及 回归 RFE还可以使用哪些型号 回归RFE模型可以用于分类,反之亦然(在某个地方阅读。仍然不确定它们如何适合) 关于Q.1,文件说明: 估计员:对象 一种带拟合方法的监督学习估计器,通过系数属性或特征重要性属性提供有关特征重要性的信息 coef\u通常与所有线性模型相关(例如sklearn.linear\u model,s
分类和回归,我们可以使用哪些模型进行递归特征消除
例如,我们可以使用
selector = RFE(RandomForestClassifier(), 5)
分类
及
回归
RFE还可以使用哪些型号
回归RFE模型可以用于分类,反之亦然(在某个地方阅读。仍然不确定它们如何适合)
关于Q.1,文件说明:
估计员:对象
一种带拟合方法的监督学习估计器,通过系数属性或特征重要性属性提供有关特征重要性的信息
coef\u
通常与所有线性模型相关(例如sklearn.linear\u model
,sklearn.naive\u baye
,sklearn.svm
等)<代码>功能重要性与基于树的模型相关联:例如,sklearn.tree.DecisionTreeClassifier
,sklearn.employee.RandomForestClassifier
,等等
关于问题2,我对这方面的了解还不够。我的直觉是,你可以通过离散化问题来使用一些分类器来处理回归问题,但不确定它在实践中是否有用。我会让更有知识的人来回答这个问题
selector = RFE(RandomForestRegressor(), 5)