相同的回归,不同的统计(R v.SAS)?

相同的回归,不同的统计(R v.SAS)?,r,sas,R,Sas,我在SAS和R中运行了相同的概率回归,虽然我的系数估计(本质上)是等效的,但报告的测试统计数据是不同的。具体来说,SAS将测试统计信息报告为t统计信息,而R将测试统计信息报告为z统计信息 我检查了我的计量经济学文本,发现(几乎没有详细说明)它报告了t统计的概率结果 哪个统计数据是合适的?为什么R与SAS不同 这是我的SAS代码: proc qlim data=DavesData; model y = x1 x2 x3/ discrete(d=probit); run; quit; 这是我的R

我在SAS和R中运行了相同的概率回归,虽然我的系数估计(本质上)是等效的,但报告的测试统计数据是不同的。具体来说,SAS将测试统计信息报告为t统计信息,而R将测试统计信息报告为z统计信息

我检查了我的计量经济学文本,发现(几乎没有详细说明)它报告了t统计的概率结果

哪个统计数据是合适的?为什么R与SAS不同

这是我的SAS代码:

proc qlim data=DavesData;
 model y = x1 x2 x3/ discrete(d=probit);
run;
quit;
这是我的R代码:

> model.1 <- glm(y ~ x1 + x2 + x3, family=binomial(link="probit"))
> summary(model.1)
>模型1摘要(模型1)

仅回答一点-这是一个严重的离题,问题实际上应该结束-但t-统计量和z-统计量都没有意义。尽管如此,它们都是相关的,因为Z只是标准正态分布,而T是一个适应的“接近正态”分布,考虑到你的样本仅限于n个案例

现在,z和t统计量都为零假设提供了意义,即各自的系数等于零。用于该测试的系数标准误差基于残余误差。使用链接函数,您实际上以这样一种方式转换您的响应,即残差再次变为正常值,而实际上残差表示观察到的和估计的比例之间的差异。由于这种转换,计算T统计量的自由度不再有用,因此R假设检验统计量的标准正态分布

两个结果完全相同,R只会给出稍微尖锐的p值。这是一个有争议的问题,但是如果你看一下比例差异测试,它们也总是使用标准的法线近似(Z-测试)来完成

这让我回到了这一点,这两个值实际上都没有任何意义。如果你想知道一个变量对p值是否有显著的贡献,你可以使用卡方检验,比如似然比检验(LR)、分数检验或瓦尔德检验。R只给出了标准似然比,SAS也给出了另外两个。但这三个测试本质上是等效的,如果它们严重不同,那么是时候再次查看您的数据了

例如在R中:

anova(model.1,test="Chisq")

对于SAS:查看对比度使用示例,获取LR、分数或Wald测试

尝试询问,如果您这样做,请链接到此处!妈的,我相信一个月前有这样一个比较问题。只是再也找不到了。尝试搜索。。。也许你比我更擅长谷歌。你也可以在runsubmit.com上询问——这是另一个专门为SAS服务的stackexchange网站。干杯,罗伯。