使用XGBoost R执行功能选择

使用XGBoost R执行功能选择,r,r-caret,xgboost,feature-selection,R,R Caret,Xgboost,Feature Selection,我在R中创建了一个预测模型。我想做特征选择。我已经读到xgboost不需要进行变量选择,但我为过去的1、2、3、4和5个分数添加了一个变量。添加每个变量,在5倍5次重复交叉验证中得出这些RMSE 10.3 10.1 10 10.1 10.5 这表明变量选择确实会产生差异,因为错误率会产生U型 我正在考虑迭代所有新变量,但这听起来效率很低。有更好的方法吗 我也在考虑做逐步回归并使用这些特性。这是一个好主意吗?您可以尝试根据特征重要性得分执行特征选择,只保留其重要性超过给定阈值(如平均特征重要性)的

我在R中创建了一个预测模型。我想做特征选择。我已经读到xgboost不需要进行变量选择,但我为过去的1、2、3、4和5个分数添加了一个变量。添加每个变量,在5倍5次重复交叉验证中得出这些RMSE

10.3 10.1 10 10.1 10.5

这表明变量选择确实会产生差异,因为错误率会产生U型

我正在考虑迭代所有新变量,但这听起来效率很低。有更好的方法吗


我也在考虑做逐步回归并使用这些特性。这是一个好主意吗?

您可以尝试根据特征重要性得分执行特征选择,只保留其重要性超过给定阈值(如平均特征重要性)的特征,并尝试查看这是否改善RMSE