R 回归系数';重要性检查
有人能给我介绍一下线性回归软件包吗?该软件包不仅会运行回归,还会计算每个回归系数的显著性标准(标准差/平均值),并将其与(N-k)“自由度”的适当p值进行比较?或者至少会提供输出,可以用来计算这样的结果 理想情况下,对于Python,但也将采用RR 回归系数';重要性检查,r,regression,statsmodels,p-value,significance,R,Regression,Statsmodels,P Value,Significance,有人能给我介绍一下线性回归软件包吗?该软件包不仅会运行回归,还会计算每个回归系数的显著性标准(标准差/平均值),并将其与(N-k)“自由度”的适当p值进行比较?或者至少会提供输出,可以用来计算这样的结果 理想情况下,对于Python,但也将采用R 谢谢大家! 在R中,lm()将拟合线性模型,summary()提供完整的输出,包括系数估计、标准误差、t统计量和p值 statsmodels为线性回归和其他估计模型提供了所有标准推断 下面的输出是从这个笔记本上复制的 有一些解释的博客: 你看过R库
谢谢大家! 在R中,
lm()
将拟合线性模型,summary()
提供完整的输出,包括系数估计、标准误差、t统计量和p值 statsmodels为线性回归和其他估计模型提供了所有标准推断
下面的输出是从这个笔记本上复制的
有一些解释的博客:
你看过R库中的
?lm
/?summary.lm
了吗?(从技术上讲,它在stats
包中,但当您运行R时,它会自动加载)我建议您通过谷歌搜索“python线性回归示例”,在该示例中,将带您到,它提供了python中线性回归的详细演练。是一个伟大的R资源。@Tchotchke-伟大的链接!非常感谢。使用这里的术语,我正在寻找一个“连续的、无监督的”模型,该模型将使用系数显著性标准提供“降维”。我看到的问题是,当使用预构建包时,并不是所有的统计数据都可以方便地(甚至完全可以)获得。更糟糕的是,很难甚至不可能获得可以用来扩展假设的数据!非常感谢。Python中没有任何东西(例如scipy)?我对Python函数不太熟悉。
mod = ols(formula='Lottery ~ Literacy + Wealth + Region', data=df)
res = mod.fit()
print(res.summary())
OLS Regression Results
==============================================================================
Dep. Variable: Lottery R-squared: 0.338
Model: OLS Adj. R-squared: 0.287
Method: Least Squares F-statistic: 6.636
Date: Tue, 02 Dec 2014 Prob (F-statistic): 1.07e-05
Time: 12:52:16 Log-Likelihood: -375.30
No. Observations: 85 AIC: 764.6
Df Residuals: 78 BIC: 781.7
Df Model: 6
Covariance Type: nonrobust
===============================================================================
coef std err t P>|t| [95.0% Conf. Int.]
-------------------------------------------------------------------------------
Intercept 38.6517 9.456 4.087 0.000 19.826 57.478
Region[T.E] -15.4278 9.727 -1.586 0.117 -34.793 3.938
Region[T.N] -10.0170 9.260 -1.082 0.283 -28.453 8.419
Region[T.S] -4.5483 7.279 -0.625 0.534 -19.039 9.943
Region[T.W] -10.0913 7.196 -1.402 0.165 -24.418 4.235
Literacy -0.1858 0.210 -0.886 0.378 -0.603 0.232
Wealth 0.4515 0.103 4.390 0.000 0.247 0.656
==============================================================================
Omnibus: 3.049 Durbin-Watson: 1.785
Prob(Omnibus): 0.218 Jarque-Bera (JB): 2.694
Skew: -0.340 Prob(JB): 0.260
Kurtosis: 2.454 Cond. No. 371.
==============================================================================
Warnings:
[1] Standard Errors assume that the covariance matrix of the errors is correctly specified.