Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/xslt/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
glmer与JAGS:仅截距层次模型中的不同结果 贾格斯_R_Glm_Hierarchical_Jags - Fatal编程技术网

glmer与JAGS:仅截距层次模型中的不同结果 贾格斯

glmer与JAGS:仅截距层次模型中的不同结果 贾格斯,r,glm,hierarchical,jags,R,Glm,Hierarchical,Jags,我在JAGS中有一个仅截获的逻辑模型,定义如下: model{ for(i in 1:Ny){ y[i] ~ dbern(mu[s[i]]) } for(j in 1:Ns){ mu[j] <- ilogit(b0[j]) b0[j] ~ dnorm(0, sigma) } sigma ~ dunif(0, 100) } Random effects: Groups Name Variance Std.Dev. speaker (Intercep

我在JAGS中有一个仅截获的逻辑模型,定义如下:

model{
for(i in 1:Ny){
    y[i] ~ dbern(mu[s[i]])
}
for(j in 1:Ns){
    mu[j] <- ilogit(b0[j])
    b0[j] ~ dnorm(0, sigma)
}

sigma ~ dunif(0, 100)
}
Random effects:
Groups  Name        Variance Std.Dev.
speaker (Intercept) 0.3317   0.576   
Number of obs: 1544, groups:  subject, 27

Fixed effects:
            Estimate Std. Error z value Pr(>|z|)    
(Intercept)   0.7401     0.1247   5.935 2.94e-09 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
然而,该模型的结果如下:

model{
for(i in 1:Ny){
    y[i] ~ dbern(mu[s[i]])
}
for(j in 1:Ns){
    mu[j] <- ilogit(b0[j])
    b0[j] ~ dnorm(0, sigma)
}

sigma ~ dunif(0, 100)
}
Random effects:
Groups  Name        Variance Std.Dev.
speaker (Intercept) 0.3317   0.576   
Number of obs: 1544, groups:  subject, 27

Fixed effects:
            Estimate Std. Error z value Pr(>|z|)    
(Intercept)   0.7401     0.1247   5.935 2.94e-09 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
所以这里它说我的估计大大高于
0

数据是什么样子的 以下是受试者的
0s
1s
比例。你可以看到,对于绝大多数受试者,
1
的比例都在50%以上

你知道为什么JAG和
glmer()在这里如此不同吗?

      0    1
1  0.47 0.53
2  0.36 0.64
3  0.29 0.71
4  0.42 0.58
5  0.12 0.88
6  0.22 0.78
7  0.54 0.46
8  0.39 0.61
9  0.30 0.70
10 0.32 0.68
11 0.36 0.64
12 0.66 0.34
13 0.38 0.62
14 0.49 0.51
15 0.35 0.65
16 0.32 0.68
17 0.12 0.88
18 0.45 0.55
19 0.36 0.64
20 0.36 0.64
21 0.28 0.72
22 0.40 0.60
23 0.41 0.59
24 0.19 0.81
25 0.27 0.73
26 0.08 0.92
27 0.12 0.88

您忘记包含平均值,因此您的截距参数固定为零。像这样的方法应该会奏效:

model{
for(i in 1:Ny){
    y[i] ~ dbern(mu[s[i]])
}
for(j in 1:Ns){
    mu[j] <- ilogit(b0[j])
    b0[j] ~ dnorm(mu0, sigma)
}
mu0 ~ dnorm(0,0.001)
sigma ~ dunif(0, 100)
}
模型{
对于(我在1:Ny){
y[i]~dbern(mu[s[i]]
}
对于(1:Ns中的j){

mu[j]谢谢!但是JAGS模型的HDI仍然包括0。所以在某种程度上,这两个模型给了我关于可能影响的不同决定(以及它是否与0不同).这是预期的,还是这两个模型不是等效的…?你是在看
mu0
的后验密度吗?哦,我明白你的意思。不,我不是。我现在是,它确实符合我从glm()中预期的型号。非常感谢——我对JAGS完全不熟悉,过渡也不是那么顺利。取决于你在做什么,你可能会对
brms
和/或
rstanarm
PackagesHanks感兴趣!我会研究一下。