R語(yǔ)言使用Rasch模型分析學(xué)生答題能力|附代碼數(shù)據(jù)
全文鏈接:http://tecdat.cn/?p=10175
最近我們被客戶(hù)要求撰寫(xiě)關(guān)于Rasch的研究報(bào)告,包括一些圖形和統(tǒng)計(jì)輸出。
幾個(gè)月以來(lái),我一直對(duì)序數(shù)回歸與項(xiàng)目響應(yīng)理論(IRT)之間的關(guān)系感興趣
在這篇文章中,我重點(diǎn)介紹Rasch分析。
最近,我花了點(diǎn)時(shí)間嘗試?yán)斫獠煌墓浪惴椒?。三種最常見(jiàn)的估算方法是:
聯(lián)合最大似然(JML)
條件邏輯回歸,在文獻(xiàn)中稱(chēng)為條件最大似然(CML)。
標(biāo)準(zhǔn)多層次模型,在測(cè)量文獻(xiàn)中稱(chēng)為邊際最大似然(MML)。
閱讀后,我決定嘗試進(jìn)行Rasch分析,生成多個(gè)Rasch輸出。
相關(guān)視頻
**
拓端
,贊15
例子
需要ggplot2和dplyr才能創(chuàng)建圖表。
library(Epi)?#?用于帶對(duì)比的條件邏輯回歸library(lme4)?#?glmerlibrary(ggplot2)?#?用于繪圖library(dplyr)?#?用于數(shù)據(jù)操作
數(shù)據(jù)。
raschdat1?<-?as.data.frame(raschdat)
CML估算
res.rasch?<-?RM(raschdat1)
系數(shù)
coef(res.rasch)beta?V1??????beta?V2??????beta?V3??????beta?V4??????beta?V51.565269700??0.051171719??0.782190094?-0.650231958?-1.300578876beta?V6??????beta?V7??????beta?V8??????beta?V9?????beta?V100.099296282??0.681696827??0.731734160??0.533662275?-1.107727126beta?V11?????beta?V12?????beta?V13?????beta?V14?????beta?V15-0.650231959??0.387903893?-1.511191830?-2.116116897??0.339649394beta?V16?????beta?V17?????beta?V18?????beta?V19?????beta?V20-0.597111141??0.339649397?-0.093927362?-0.758721132??0.681696827beta?V21?????beta?V22?????beta?V23?????beta?V24?????beta?V250.936549373??0.989173502??0.681696830??0.002949605?-0.814227487beta?V26?????beta?V27?????beta?V28?????beta?V29?????beta?V301.207133468?-0.093927362?-0.290443234?-0.758721133??0.731734150
使用回歸
raschdat1.long$tot?<-?rowSums(raschdat1.long)?#?創(chuàng)建總分c(min(raschdat1.long$tot),?max(raschdat1.long$tot))?#最小和最大分?jǐn)?shù)[1]??1?26raschdat1.long$ID?<-?1:nrow(raschdat1.long)?#創(chuàng)建IDraschdat1.long?<-?tidyr::gather(raschdat1.long,?item,?value,?V1:V30)?#?寬數(shù)據(jù)轉(zhuǎn)換為長(zhǎng)數(shù)據(jù)#?轉(zhuǎn)換因子類(lèi)型raschdat1.long$item?<-?factor(
??raschdat1.long$item,?levels?=?p
條件最大似然
#?回歸系數(shù)item1????????item2????????item3????????item4????????item50.051193209??0.782190560?-0.650241362?-1.300616876??0.099314453item6????????item7????????item8????????item9???????item100.681691285??0.731731557??0.533651426?-1.107743224?-0.650241362item11???????item12???????item13???????item14???????item150.387896763?-1.511178125?-2.116137610??0.339645555?-0.597120333item16???????item17???????item18???????item19???????item200.339645555?-0.093902568?-0.758728000??0.681691285??0.936556599item21???????item22???????item23???????item24???????item250.989181510??0.681691285??0.002973418?-0.814232531??1.207139323item26???????item27???????item28???????item29????????-0.093902568?-0.290430680?-0.758728000??0.731731557
請(qǐng)注意,item1是V2而不是V1,item29是V30。要獲得第一個(gè)題目V1的難易程度,只需將題目1到題目29的系數(shù)求和,然后乘以-1。
sum(coef(res.clogis)[1:29])?*?-1[1]?1.565278#?再確認(rèn)兩個(gè)模型是否等效res.rasch$loglik?#Rasch對(duì)數(shù)似然[1]?-1434.482#?條件邏輯對(duì)數(shù)似然,第二個(gè)值是最終模型的對(duì)數(shù)似然res.clogis$loglik[1]?-1630.180?-1434.482#還可以比較置信區(qū)間,方差,...#clogistic可讓您檢查分析的實(shí)際樣本量:res.clogis$n[1]?3000
顯然,所有數(shù)據(jù)(30 * 100)都用于估算。這是因?yàn)闆](méi)有一個(gè)參與者在所有問(wèn)題上都得分為零,在所有問(wèn)題上都得分為1(最低為1,最高為30分中的26分)。所有數(shù)據(jù)都有助于估計(jì),因此本示例中的方差估計(jì)是有效的。
聯(lián)合極大似然估計(jì)
#?標(biāo)準(zhǔn)邏輯回歸,請(qǐng)注意使用對(duì)比res.jml?
#?前三十個(gè)系數(shù)(Intercept)????????item1????????item2????????item3????????item4-3.688301292??0.052618523??0.811203577?-0.674538589?-1.348580496??????item5????????item6????????item7????????item8????????item90.102524596??0.706839644??0.758800752??0.553154545?-1.148683041?????item10???????item11???????item12???????item13???????item14-0.674538589??0.401891360?-1.566821260?-2.193640539??0.351826379?????item15???????item16???????item17???????item18???????item19-0.619482689??0.351826379?-0.097839229?-0.786973625??0.706839644?????item20???????item21???????item22???????item23???????item240.971562267??1.026247034??0.706839644??0.002613624?-0.844497142?????item25???????item26???????item27???????item28???????item291.252837340?-0.097839229?-0.301589647?-0.786973625??0.758800752
item29與V30相同。差異是由估算方法的差異引起的。要獲得第一個(gè)問(wèn)題V1的難易程度,只需將問(wèn)題1到問(wèn)題29的系數(shù)求和,然后乘以-1。
sum(coef(res.j[1]?1.625572
多層次邏輯回歸或MML
我希望回歸系數(shù)是問(wèn)題到達(dá)時(shí)的難易程度,glmmTMB()
不提供對(duì)比選項(xiàng)。我要做的是運(yùn)行glmer()
兩次,將第一次運(yùn)行的固定效果和隨機(jī)效果作為第二次運(yùn)行的起始值。
使用多層次模型復(fù)制Rasch結(jié)果
提供個(gè)體-問(wèn)題映射:
plot(res.rasch)

要?jiǎng)?chuàng)建此圖,我們需要問(wèn)題難度(回歸系數(shù)* -1)和個(gè)體能力(隨機(jī)截距)。
點(diǎn)擊標(biāo)題查閱往期內(nèi)容

數(shù)據(jù)分享|PYTHON用PYSTAN貝葉斯IRT模型擬合RASCH模型分析學(xué)生考試問(wèn)題數(shù)據(jù)

左右滑動(dòng)查看更多

01

02

03

04


極端的分?jǐn)?shù)是不同的。這歸因于MML的差異。由于CML不提供人為因素,因此必須使用兩步排序過(guò)程。
問(wèn)題特征曲線
問(wèn)題特征曲線:
plot(res.rasch)

在這里,我們需要能夠根據(jù)學(xué)生的潛能來(lái)預(yù)測(cè)學(xué)生正確答題的概率。我所做的是使用邏輯方程式預(yù)測(cè)概率。獲得該數(shù)值,就很容易計(jì)算預(yù)測(cè)概率。由于我使用循環(huán)來(lái)執(zhí)行此操作,因此我還要計(jì)算問(wèn)題信息,該信息是預(yù)測(cè)概率乘以1-預(yù)測(cè)概率。
##?GGPLOT可視化ggplot(test.info.df,?aes(x?=?theta,?y?=?prob,?colour?=?reorder(item,?diff,?mean)))?+??geom_line()?+ct?response",?colour?=?"Item",
下面將逐項(xiàng)繪制
ggplot(test.info.df,?aes(x?=?theta,?y?=?prob))?+?geom_line()?+
??scale_x_continuous(breaks?=?seq(-6,?6,?2),?limits?=?c(-4,?4))?+
??scale_y_continuous(labels?=?percent,?breaks?=?seq(0,?1,?.
個(gè)體參數(shù)圖
plot(person.parameter(res.rasch))

我們需要估計(jì)的個(gè)體能力:
ggplot(raschdat1.long,?aes(x?=?tot,?y?=?ability))?+
??geom_point(shape?=?1,?size?=?2)?+?geom_line()?+
??scale_x_continuous(breaks?=?1:26)?+?
??theme_classic()

問(wèn)題均方擬合
對(duì)于infit MSQ,執(zhí)行相同的計(jì)算。
eRm:
ggplot(item.fit.df,?aes(x?=?mml,?y?=?cml))?+
??scale_x_continuous(breaks?=?seq(0,?2,?.1))?+
??scale_y_continuous(breaks?=?seq(0,?2,?.1))

似乎CML的MSQ幾乎總是比多層次模型(MML)的MSQ高。
eRm:

來(lái)自CML的MSQ幾乎總是比來(lái)自多層次模型(MML)的MSQ高。我使用傳統(tǒng)的臨界值來(lái)識(shí)別不適合的人。
測(cè)試信息
eRm:
plotINFO(res.rasch)

創(chuàng)建ICC計(jì)算測(cè)試信息時(shí),我們已經(jīng)完成了上述工作。對(duì)于總體測(cè)試信息,我們需要對(duì)每個(gè)問(wèn)題的測(cè)試信息進(jìn)行匯總:


最后,我認(rèn)為使用標(biāo)準(zhǔn)測(cè)量誤差(SEM),您可以創(chuàng)建一個(gè)置信區(qū)間帶狀圖。SEM是測(cè)試信息的反函數(shù)。

該圖表明,對(duì)于一個(gè)估計(jì)的能力為-3的個(gè)體,他們的能力的估計(jì)精度很高,他們的實(shí)際分?jǐn)?shù)可能在-1.5和-4.5之間。
經(jīng)過(guò)這一工作,我可以更好地理解該模型,以及其中的一些內(nèi)容診斷。

點(diǎn)擊文末?“閱讀原文”
獲取全文完整資料。
本文選自《R語(yǔ)言使用Rasch模型分析學(xué)生答題能力》。
點(diǎn)擊標(biāo)題查閱往期內(nèi)容
數(shù)據(jù)分享|PYTHON用PYSTAN貝葉斯IRT模型擬合RASCH模型分析學(xué)生考試問(wèn)題數(shù)據(jù)
R語(yǔ)言IRT理論:擴(kuò)展Rasch模型等級(jí)量表模型lltm、 rsm 和 pcm模型分析心理和教育測(cè)驗(yàn)數(shù)據(jù)可視化
R語(yǔ)言擬合擴(kuò)展Rasch模型分析試題質(zhì)量
R語(yǔ)言使用Rasch模型分析學(xué)生答題能力
R語(yǔ)言中的BP神經(jīng)網(wǎng)絡(luò)模型分析學(xué)生成績(jī)
R語(yǔ)言方差分析(ANOVA)學(xué)生參加輔導(dǎo)課考試成績(jī)差異
數(shù)據(jù)視域下圖書(shū)館話題情感分析
探析大數(shù)據(jù)期刊文章研究熱點(diǎn)
R語(yǔ)言LME4混合效應(yīng)模型研究教師的受歡迎程度
疫情下的在線教學(xué)數(shù)據(jù)觀使用SAS,Stata,HLM,R,SPSS和Mplus的分層線性模型HLM