R語言分層線性模型案例
?原文?http://tecdat.cn/?p=3740
有許多分層數(shù)據(jù)的例子。例如,地理數(shù)據(jù)通常按層次分組,可能是全球數(shù)據(jù),然后按國家和地區(qū)分組 。一個生物學(xué)的例子是按物種分組的動物或植物的屬性,或者屬于一個級別的屬性,然后是家族。一個商業(yè)例子可能是業(yè)務(wù)部門和細分的員工滿意度。每個學(xué)科都有許多例子,其中觀察以某種形式的層次結(jié)構(gòu)進行分組。
在這里,我想解釋使用一個簡單的例子, 如何使用R來構(gòu)建分層線性模型。我在整個三組中使用簡單的一維數(shù)據(jù)集。在每個組內(nèi),自變量x和因變量y之間存在強正相關(guān)關(guān)系。?
geom_smooth(aes(x=x,y=y,group=group),method=lm,se=FALSE) +
theme_bw() + theme(legend.position="null")
g + geom_smooth(aes(x=x,y=y),method=lm,se=TRUE)
這些組有不同的顏色 。 在本文的其余部分,我將展示如何使用層次模型來模擬這種情況,該模型確實考慮了組信息。

建議的分層線性模型的一個包是arm,它具有與lm()函數(shù)非常相似的函數(shù)lmer()。
?
lmer.both <- lmer(y~1+x+(1+x|group),data=df)
# 固定效應(yīng)是頂層截距和斜率
# (Intercept) x
# 1.978652 1.144952
# 截距組隨機效應(yīng)
#
> ranef(lmer.alpha)
# $group
# (Intercept)
# 1 3.4386106
# 2 -0.8360106
# 3 -2.6026000
# > group.alpha
# [1] 4.2883814 1.2134493 -0.5410049
# > ranef(lmer.alpha)$group[,1] + fixef(lmer.alpha)[1]
# [1] 5.4172624 1.1426413 -0.6239482
group.alpha
# 固定效果是頂層截距
# (Intercept)
# 5.788223
# 對截距和斜率進行分組隨機影響
# (Intercept) x
# 1 -1.740225 0.518047
# 2 -4.564296 1.415710
# 3 -6.354477 1.231584
# > group.alpha
# [1] 4.2883814 1.2134493 -0.5410049
# > ranef(lmer.beta)$group + fixef(lmer.
# [1] 4.0479981 1.2239268 -0.5662542
fixef(lmer.beta)
ranef(lmer.b
group.beta
# > fixef(lmer.both)
# (Intercept) x
# 1.578741 1.059370
# > ranef(lmer.both)
# $group
# (Intercept) x
# 1 2.500014 -0.5272426
# 2 -0.355365 0.3545068
# 3 -2.144649 0.1727358
fixef(lmer.both)
ranef(lmer.both)
#我們簡單地運行3個回歸,每組一個
coef(lm(y~x,data=df[group==1,]))
coef(lm(y~x,data=df[group==2,]))
coef(lm(y~x,data=df[group==3,]))
# (Intercept) x
# 4.0653645 0.5259707
# 1.227969 1.428500
# -0.570280 1.225905
# true values for group.alpha are
# 4.2883814 1.2134493 -0.5410049
(ranef(lmer.alpha)$group[,1]) + fixef(lmer.alpha)[1]
(ranef(lmer.beta)$group[,1]) + fixef(lmer.beta)[1]
# Alpha隨機效應(yīng)圖
fit.lines <- data.frame(cbind(intercept=(ranef(lmer.al
g.alpha
# beta隨機效應(yīng)圖
fit.lin
iplot(g.alpha
結(jié)果顯示有三個圖,第一個是截距(alpha)依賴于組,第二個是斜率(β)依賴于組,第三個是截距和斜率依賴組。你可能在想為什么不是做三個單獨的線性回歸,因為第三個例子產(chǎn)生的系數(shù)非常接近于此。原因是基于這樣的假設(shè):alphas和beta是從頂層分布中提取的,因此是相關(guān)的。這意味著我們可以在組之間匯集信息,如果我們?yōu)槠渲幸粋€組提供的數(shù)據(jù)非常少 。?

術(shù)語回歸系數(shù)是“固定效應(yīng)”,組別稱為“隨機效應(yīng)”。
# 現(xiàn)在執(zhí)行3個單獨的線性回歸(每組一個)
lm.mcmc.1 <- MCMCglm(y~1+x,data=df2[df2$group=="1"
g.sim.mcmc <- g2 + ta=fit.lines.mcmc,alpha=.2) +
結(jié)果如下所示。 每組只有一個單獨的線性回歸。對于藍色和紅色組,線條在大多數(shù)情況下非常適合數(shù)據(jù),但對于只有三個數(shù)據(jù)點的綠色組,線條遍布整個地方,因為沒有任何先驗信息,估計數(shù)據(jù)的斜率和偏移量非常不確定。右側(cè)的圖表顯示 因為該模型假設(shè)所有三組的斜率和偏移都是從一個分布中得出的,所以可以合理地假設(shè)斜率是正的。我們知道這適用于這個例子,因為我們設(shè)計了數(shù)據(jù)生成過程。

?
還有問題嗎? 聯(lián)系我們!

最受歡迎的見解
1.基于R語言的lmer混合線性回歸模型
2.R語言用Rshiny探索lme4廣義線性混合模型(GLMM)和線性混合模型(LMM)
3.R語言線性混合效應(yīng)模型實戰(zhàn)案例
4.R語言線性混合效應(yīng)模型實戰(zhàn)案例2
5.R語言線性混合效應(yīng)模型實戰(zhàn)案例
6.線性混合效應(yīng)模型Linear Mixed-Effects Models的部分折疊Gibbs采樣
7.R語言LME4混合效應(yīng)模型研究教師的受歡迎程度
8.R語言中基于混合數(shù)據(jù)抽樣(MIDAS)回歸的HAR-RV模型預(yù)測GDP增長
9.使用SAS,Stata,HLM,R,SPSS和Mplus的分層線性模型HLM