R:使用逻辑回归上的插入符号进行交叉验证的特征选择

R:使用逻辑回归上的插入符号进行交叉验证的特征选择,r,r-caret,cross-validation,feature-extraction,R,R Caret,Cross Validation,Feature Extraction,我目前正在学习如何在R中实现后勤回归 我已经获取了一个数据集,并将其拆分为一个训练集和测试集,希望使用交叉验证来选择最佳功能,实现正向选择、反向选择和最佳子集选择。 我正在使用插入符号对训练数据集执行交叉验证,然后在测试数据上测试预测 我已经在插入符号中看到了rfe控件,并且还查看了caret上的文档以及有关该问题的链接。我不清楚如何更改特征选择的类型,因为它似乎默认为反向选择。有人能帮我处理工作流程吗。下面是一个可复制的示例 library("caret") # Create an Exam

我目前正在学习如何在R中实现后勤回归

我已经获取了一个数据集,并将其拆分为一个训练集和测试集,希望使用交叉验证来选择最佳功能,实现
正向选择
反向选择
最佳子集选择
。 我正在使用插入符号对训练数据集执行交叉验证,然后在测试数据上测试预测

我已经在插入符号中看到了
rfe
控件,并且还查看了
caret
上的文档以及有关该问题的链接。我不清楚如何更改特征选择的类型,因为它似乎默认为反向选择。有人能帮我处理工作流程吗。下面是一个可复制的示例

library("caret")

# Create an Example Dataset from German Credit Card Dataset
mydf <- GermanCredit

# Create Train and Test Sets 80/20 split
trainIndex <- createDataPartition(mydf$Class, p = .8, 
                              list = FALSE, 
                              times = 1)

train <- mydf[ trainIndex,]
test  <- mydf[-trainIndex,]


ctrl <- trainControl(method = "repeatedcv", 
                 number = 10, 
                 savePredictions = TRUE)

mod_fit <- train(Class~., data=train, 
             method="glm", 
             family="binomial",
             trControl = ctrl, 
             tuneLength = 5)


# Check out Variable Importance
varImp(mod_fit)
summary(mod_fit)

# Test the new model on new and unseen Data for reproducibility
pred = predict(mod_fit, newdata=test)
accuracy <- table(pred, test$Class)
sum(diag(accuracy))/sum(accuracy)
库(“插入符号”)
#从德国信用卡数据集创建示例数据集
mydf谷歌搜索指向这一点