基于重采样的caret性能度量

基于重采样的caret性能度量,r,machine-learning,r-caret,glmnet,R,Machine Learning,R Caret,Glmnet,我执行惩罚逻辑回归,并用插入符号(glmnet)训练模型 model\u-fit model_fit$results$ROC是重采样性能度量平均值的向量(大小等于我的调整参数lambda)吗 是的;精确地说,长度将等于tuneGrid的行数,这里正好与lambdaSeq的长度一致(因为唯一的其他参数alpha保持不变) 下面是一个快速示例,改编自(使用gbm和精度度量,但想法相同): 库(插入符号) 图书馆(mlbench) 数据(声纳) 种子集(998) 内衬 model_fit$result

我执行惩罚逻辑回归,并用插入符号(glmnet)训练模型

model\u-fit
model_fit$results$ROC
是重采样性能度量平均值的向量(大小等于我的调整参数
lambda
)吗

是的;精确地说,长度将等于
tuneGrid
的行数,这里正好与
lambdaSeq
的长度一致(因为唯一的其他参数
alpha
保持不变)

下面是一个快速示例,改编自(使用
gbm
精度
度量,但想法相同):

库(插入符号)
图书馆(mlbench)
数据(声纳)
种子集(998)
内衬
model_fit$results$ROC
是重采样性能度量平均值的向量(大小等于我的调整参数
lambda
)吗

是的;精确地说,长度将等于
tuneGrid
的行数,这里正好与
lambdaSeq
的长度一致(因为唯一的其他参数
alpha
保持不变)

下面是一个快速示例,改编自(使用
gbm
精度
度量,但想法相同):

库(插入符号)
图书馆(mlbench)
数据(声纳)
种子集(998)

在训练中考虑看<代码>模型>拟合结果$< /代码>它应该是自解释的。通常,插入符号始终显示通过重新采样获得的性能度量。为了获得更详细的答案,我建议您提供具有内置数据集和列车控制参数的可重复代码。考虑查看<代码>模型>拟合结果$ <代码>,它应该是自解释的。通常,插入符号始终显示通过重新采样获得的性能度量。为了得到更详细的答案,我建议您提供具有内置数据集和列车控制参数的可复制代码。