R与SPSS中不同的交互作用p值

R与SPSS中不同的交互作用p值,r,spss,mixed-models,R,Spss,Mixed Models,我最初在SPSS中运行我的数据,因为计算lmer软件包需要一些时间来学习。我花了几周的时间用R编写了一个脚本,但我在R中的输出与我用SPSS得到的不同 我有3个固定效果:组、会话和试用类型 当我在SPSS中运行一个混合模型时,我得到了交互组*会话p=.08或p=.02,这取决于我使用的协方差结构。这也是我想使用R的部分原因,因为我没有足够的信息来帮助我决定使用哪种结构 这是我在R中的模型。我使用对数似然检验来获得这个组*会话交互的p值 Mod2 = lmer(accuracy ~ group*s

我最初在SPSS中运行我的数据,因为计算lmer软件包需要一些时间来学习。我花了几周的时间用R编写了一个脚本,但我在R中的输出与我用SPSS得到的不同

我有3个固定效果:组、会话和试用类型

当我在SPSS中运行一个混合模型时,我得到了交互组*会话p=.08或p=.02,这取决于我使用的协方差结构。这也是我想使用R的部分原因,因为我没有足够的信息来帮助我决定使用哪种结构

这是我在R中的模型。我使用对数似然检验来获得这个组*会话交互的p值

Mod2 = lmer(accuracy ~ group*session*trialtype + (trialtype|subject), REML=F, data=data, 
    control = lmerControl(optimizer = "optimx", optCtrl=list(method='L-BFGS-B'))))
 Mod5 = lmer(accuracy ~ session + trialtype + group + session*trialtype + trialtype*group + (trialtype|subject), 
    data=data, REML=FALSE,
    control = lmerControl(optimizer = "optimx", optCtrl=list(method='L-BFGS-B')))

 anova(Mod2, Mod5)

 Data: data
 Models:
 Mod5: accuracy ~ session + trialtype + group + session * trialtype + 
 Mod5:     trialtype * group + (trialtype | subject)
 Mod2: accuracy ~ group * session * trialtype + (trialtype | subject)
 Df     AIC     BIC logLik deviance  Chisq Chi Df Pr(>Chisq)
 Mod5 23 -961.32 -855.74 503.66  -1007.3                         
 Mod2 27 -956.32 -832.38 505.16  -1010.3 2.9989      4      0.558
我还将注意到,我根据收到的2条警告/错误消息添加了lmerControl。当我添加这个时,我得到了单一的边界警告信息

R是否可能无法识别数据中的分组变量?我不知道如何识别或纠正它

以下是我在SPSS中的语法:

 MIXED Acc BY Test TrialType Group
   /CRITERIA=CIN(95) MXITER(100) MXSTEP(10) SCORING(1) SINGULAR(0.000000000001) HCONVERGE(0,
ABSOLUTE) LCONVERGE(0, ABSOLUTE) PCONVERGE(0.000001, ABSOLUTE)
   /FIXED=Test TrialType Group Test*TrialType Test*Group TrialType*Group Test*TrialType*Group |
SSTYPE(3)
   /METHOD=ML
   /PRINT=COVB DESCRIPTIVES G  SOLUTION
   /RANDOM=INTERCEPT TrialType | SUBJECT(Subject) COVTYPE(CS)
   /REPEATED=Test | SUBJECT(Subject) COVTYPE(ID).

要弄清楚这一点,首先要确保拟合模型的对数似然值是相同的,因为如果模型没有得到相同的结果,那么测试统计数据就不会是相同的。即使模型是相同的,在R中使用的是卡方统计,而不是SPSS统计中使用的F。p值通常会有所不同,但通常不会相差0.02-.08到0.558。我怀疑您在这里没有得到严格可比的结果。

要弄清楚这一点,首先要做的是确保拟合模型的对数似然值是相同的,因为如果模型没有得到相同的结果,那么测试统计数据就不会是相同的。即使模型是相同的,在R中使用的是卡方统计,而不是SPSS统计中使用的F。p值通常会有所不同,但通常不会相差0.02-.08到0.558。我怀疑你在这里没有得到严格可比的结果