Statistics 套索回归,无变量丢失

Statistics 套索回归,无变量丢失,statistics,classification,lasso-regression,Statistics,Classification,Lasso Regression,我正在为二进制响应变量在R中执行套索回归 我使用cv.glmnet查找最佳lambda,并使用glmnet检查最佳lambda情况的系数。调用这两个函数时,我指定standarized=TRUE和alpha=1 在我的案例中,我有大约40个变量,我确信其中一些变量从散点图和vif(当我对同一数据进行逻辑回归时)中彼此之间有很强的相关性 我从套索回归中得到的最佳λ是基本上这是因为你的lambda值太小了lambda您可以发布一个可复制的示例吗?有多少次观察?@sahir。不幸的是,我无法提供一个可

我正在为二进制响应变量在R中执行套索回归

我使用
cv.glmnet
查找最佳lambda,并使用
glmnet
检查最佳lambda情况的系数。调用这两个函数时,我指定
standarized=TRUE
alpha=1

在我的案例中,我有大约40个变量,我确信其中一些变量从散点图和
vif
(当我对同一数据进行逻辑回归时)中彼此之间有很强的相关性


我从套索回归中得到的最佳λ是基本上这是因为你的
lambda
值太小了<代码>lambda您可以发布一个可复制的示例吗?有多少次观察?@sahir。不幸的是,我无法提供一个可以重现这种情况的例子。我有大约2000次观察。我最终使用了逻辑回归和SVM,因为我注意到,即使我手动控制lambda的水平(强制它变大),Lasso回归也会任意丢弃变量。
library(glmnet)
z<-rnorm(100)
data<-data.frame(y=3+rnorm(100),x1=rnorm(100),x2=rnorm(100),x3=rnorm(100),x4=rnorm(100),x5=rnorm(100),
             x6=rnorm(100),x7=rnorm(100),x8=rnorm(100),x9=rnorm(100),x10=rnorm(100),z=z,z1=z+rnorm(100,0,0.3))
gl<-glmnet(y=data$y,x=as.matrix(data[,-1]),alpha = 1)
plot(gl,xvar="lambda")
gl1<-glmnet(y=data$y,x=as.matrix(data[,-1]),alpha = 1,lambda=0.001)
gl2<-glm(data=data,formula=y~x1+x2+x3+x4+x5+x6+x7+x8+x9+x10+z+z1) 
gl1$beta
# x1  -0.10985215
# x2  -0.12337595
# x3   0.06088970
# x4  -0.12714515
# x5  -0.12237959
# x6  -0.01439966
# x7   0.02037826
# x8   0.22288055
# x9  -0.10131195
# x10 -0.04268274
# z   -0.04526606
# z1   0.04628616  
gl3$coefficients
(Intercept)          x1          x2          x3          x4          x5          x6 
 2.98542594 -0.11104062 -0.12478162  0.06293879 -0.12833484 -0.12385855 -0.01556657 
         x7          x8          x9         x10           z          z1 
 0.02071605  0.22408006 -0.10195640 -0.04419441 -0.04602251   0.04513612
as.vector(gl1$beta)-as.vector(gl2$coefficients)[-1]
# [1]  0.0011884697  0.0014056731 -0.0020490872  0.0011896872  0.0014789566  0.0011669064
# [7] -0.0003377824 -0.0011995019  0.0006444471  0.0015116774  0.0007564556  0.00115004