Python Sklearn StandardScaler+;具有可解释系数的弹性网

Python Sklearn StandardScaler+;具有可解释系数的弹性网,python,scikit-learn,linear-regression,regularized,Python,Scikit Learn,Linear Regression,Regularized,为了恰当地拟合像弹性网这样的正则化线性回归模型,必须首先对自变量进行标准化。然而,这些系数具有不同的含义。为了提取此类模型的适当权重,我是否需要使用以下等式手动计算它们: b=b'*std_y/std_x 还是sklearn中已经有一些内置功能 另外:我不认为我可以只使用normalize=True参数,因为我有可能保持无标度的伪变量您可以使用平均值和标准偏差来取消标准化sklearn在您使用StandardScaler后提供它们 来自sklearn.preprocessing导入Standar

为了恰当地拟合像弹性网这样的正则化线性回归模型,必须首先对自变量进行标准化。然而,这些系数具有不同的含义。为了提取此类模型的适当权重,我是否需要使用以下等式手动计算它们:
b=b'*std_y/std_x

还是sklearn中已经有一些内置功能


另外:我不认为我可以只使用
normalize=True
参数,因为我有可能保持无标度的伪变量

您可以使用平均值和标准偏差来取消标准化
sklearn
在您使用
StandardScaler
后提供它们

来自sklearn.preprocessing导入StandardScaler的

ss=StandardScaler()
ss.fit_transform(X_train)#或任何你称之为的东西
非标准化系数=model.coef*np.sqrt(ss.var)+ss.mean_
这将使他们处于非标准数据的规模

然而,由于使用正则化,它成为有偏估计量。对于有偏/无偏估计量,性能和可解释性之间存在权衡。这更像是一场讨论。无偏估计量和低均方误差估计量之间存在差异。请在此处阅读有偏估计量和可解释性:

tl;dr按照你的建议去做是没有意义的