Python 什么是scikit学习中套索回归的系数

Python 什么是scikit学习中套索回归的系数,python,scikit-learn,Python,Scikit Learn,coef\uu存储什么 coef\uu源于尝试完成特征选择时的套索回归方法它存储了,描述了将每个特征乘以以获得预测值的权重。本质上,coef是模型的参数(不包括正则化和截距(w0)项-见下文) 使用套索回归时,您正在执行带正则化的线性回归。 如果不进行正则化,则给定实例的预测值为: y=w0+w1*x1+w2*x2+…+wn*xn 其中,y是预测值,参数向量为w=[w0,w1,w2,…,wn],训练实例的特征向量为x=[x1,x2,…,xn]。当您执行回归时,您正在更改参数向量(或“权重向量”)

coef\uu
存储什么

coef\uu
源于尝试完成特征选择时的套索回归方法

它存储了,描述了将每个特征乘以以获得预测值的权重。本质上,
coef
是模型的参数(不包括正则化和截距(w0)项-见下文)

使用套索回归时,您正在执行带正则化的线性回归。 如果不进行正则化,则给定实例的预测值为:

y=w0+w1*x1+w2*x2+…+wn*xn

其中,y是预测值,参数向量为w=[w0,w1,w2,…,wn],训练实例的特征向量为x=[x1,x2,…,xn]。当您执行回归时,您正在更改参数向量(或“权重向量”)的值,以获得预测值,从而最小化预测值和目标值之间的差异。这是通过最小化成本函数(衡量预测与真实值之间的差异)来实现的

使用(套索)正则化,只需将参数向量的l1范数添加到代价函数(最小化),这有助于保持特征向量的值尽可能小