最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

R語(yǔ)言使用Rasch模型分析學(xué)生答題能力|附代碼數(shù)據(jù)

2022-12-08 00:12 作者:拓端tecdat  | 我要投稿

全文鏈接:http://tecdat.cn/?p=10175

最近我們被客戶(hù)要求撰寫(xiě)關(guān)于Rasch的研究報(bào)告,包括一些圖形和統(tǒng)計(jì)輸出。

幾個(gè)月以來(lái),我一直對(duì)序數(shù)回歸與項(xiàng)目響應(yīng)理論(IRT)之間的關(guān)系感興趣

在這篇文章中,我重點(diǎn)介紹Rasch分析。

最近,我花了點(diǎn)時(shí)間嘗試?yán)斫獠煌墓浪惴椒?。三種最常見(jiàn)的估算方法是:

  • 聯(lián)合最大似然(JML)
  • 條件邏輯回歸,在文獻(xiàn)中稱(chēng)為條件最大似然(CML)。
  • 標(biāo)準(zhǔn)多層次模型,在測(cè)量文獻(xiàn)中稱(chēng)為邊際最大似然(MML)。

閱讀后,我決定嘗試進(jìn)行Rasch分析,生成多個(gè)Rasch輸出。

相關(guān)視頻

**

拓端

,贊15

例子

需要ggplot2和dplyr才能創(chuàng)建圖表。

library(Epi)?#?用于帶對(duì)比的條件邏輯回歸library(lme4)?#?glmerlibrary(ggplot2)?#?用于繪圖library(dplyr)?#?用于數(shù)據(jù)操作

數(shù)據(jù)。

raschdat1?<-?as.data.frame(raschdat)

CML估算

res.rasch?<-?RM(raschdat1)

系數(shù)

coef(res.rasch)beta?V1??????beta?V2??????beta?V3??????beta?V4??????beta?V51.565269700??0.051171719??0.782190094?-0.650231958?-1.300578876beta?V6??????beta?V7??????beta?V8??????beta?V9?????beta?V100.099296282??0.681696827??0.731734160??0.533662275?-1.107727126beta?V11?????beta?V12?????beta?V13?????beta?V14?????beta?V15-0.650231959??0.387903893?-1.511191830?-2.116116897??0.339649394beta?V16?????beta?V17?????beta?V18?????beta?V19?????beta?V20-0.597111141??0.339649397?-0.093927362?-0.758721132??0.681696827beta?V21?????beta?V22?????beta?V23?????beta?V24?????beta?V250.936549373??0.989173502??0.681696830??0.002949605?-0.814227487beta?V26?????beta?V27?????beta?V28?????beta?V29?????beta?V301.207133468?-0.093927362?-0.290443234?-0.758721133??0.731734150

使用回歸

raschdat1.long$tot?<-?rowSums(raschdat1.long)?#?創(chuàng)建總分c(min(raschdat1.long$tot),?max(raschdat1.long$tot))?#最小和最大分?jǐn)?shù)[1]??1?26raschdat1.long$ID?<-?1:nrow(raschdat1.long)?#創(chuàng)建IDraschdat1.long?<-?tidyr::gather(raschdat1.long,?item,?value,?V1:V30)?#?寬數(shù)據(jù)轉(zhuǎn)換為長(zhǎng)數(shù)據(jù)#?轉(zhuǎn)換因子類(lèi)型raschdat1.long$item?<-?factor( ??raschdat1.long$item,?levels?=?p

條件最大似然

#?回歸系數(shù)item1????????item2????????item3????????item4????????item50.051193209??0.782190560?-0.650241362?-1.300616876??0.099314453item6????????item7????????item8????????item9???????item100.681691285??0.731731557??0.533651426?-1.107743224?-0.650241362item11???????item12???????item13???????item14???????item150.387896763?-1.511178125?-2.116137610??0.339645555?-0.597120333item16???????item17???????item18???????item19???????item200.339645555?-0.093902568?-0.758728000??0.681691285??0.936556599item21???????item22???????item23???????item24???????item250.989181510??0.681691285??0.002973418?-0.814232531??1.207139323item26???????item27???????item28???????item29????????-0.093902568?-0.290430680?-0.758728000??0.731731557

請(qǐng)注意,item1是V2而不是V1,item29是V30。要獲得第一個(gè)題目V1的難易程度,只需將題目1到題目29的系數(shù)求和,然后乘以-1。

sum(coef(res.clogis)[1:29])?*?-1[1]?1.565278#?再確認(rèn)兩個(gè)模型是否等效res.rasch$loglik?#Rasch對(duì)數(shù)似然[1]?-1434.482#?條件邏輯對(duì)數(shù)似然,第二個(gè)值是最終模型的對(duì)數(shù)似然res.clogis$loglik[1]?-1630.180?-1434.482#還可以比較置信區(qū)間,方差,...#clogistic可讓您檢查分析的實(shí)際樣本量:res.clogis$n[1]?3000

顯然,所有數(shù)據(jù)(30 * 100)都用于估算。這是因?yàn)闆](méi)有一個(gè)參與者在所有問(wèn)題上都得分為零,在所有問(wèn)題上都得分為1(最低為1,最高為30分中的26分)。所有數(shù)據(jù)都有助于估計(jì),因此本示例中的方差估計(jì)是有效的。

聯(lián)合極大似然估計(jì)

#?標(biāo)準(zhǔn)邏輯回歸,請(qǐng)注意使用對(duì)比res.jml? #?前三十個(gè)系數(shù)(Intercept)????????item1????????item2????????item3????????item4-3.688301292??0.052618523??0.811203577?-0.674538589?-1.348580496??????item5????????item6????????item7????????item8????????item90.102524596??0.706839644??0.758800752??0.553154545?-1.148683041?????item10???????item11???????item12???????item13???????item14-0.674538589??0.401891360?-1.566821260?-2.193640539??0.351826379?????item15???????item16???????item17???????item18???????item19-0.619482689??0.351826379?-0.097839229?-0.786973625??0.706839644?????item20???????item21???????item22???????item23???????item240.971562267??1.026247034??0.706839644??0.002613624?-0.844497142?????item25???????item26???????item27???????item28???????item291.252837340?-0.097839229?-0.301589647?-0.786973625??0.758800752

item29與V30相同。差異是由估算方法的差異引起的。要獲得第一個(gè)問(wèn)題V1的難易程度,只需將問(wèn)題1到問(wèn)題29的系數(shù)求和,然后乘以-1。

sum(coef(res.j[1]?1.625572

多層次邏輯回歸或MML

我希望回歸系數(shù)是問(wèn)題到達(dá)時(shí)的難易程度,glmmTMB()不提供對(duì)比選項(xiàng)。我要做的是運(yùn)行glmer()兩次,將第一次運(yùn)行的固定效果和隨機(jī)效果作為第二次運(yùn)行的起始值。

使用多層次模型復(fù)制Rasch結(jié)果

提供個(gè)體-問(wèn)題映射:

plot(res.rasch)

要?jiǎng)?chuàng)建此圖,我們需要問(wèn)題難度(回歸系數(shù)* -1)和個(gè)體能力(隨機(jī)截距)。

點(diǎn)擊標(biāo)題查閱往期內(nèi)容

數(shù)據(jù)分享|PYTHON用PYSTAN貝葉斯IRT模型擬合RASCH模型分析學(xué)生考試問(wèn)題數(shù)據(jù)

左右滑動(dòng)查看更多

01

02

03

04

極端的分?jǐn)?shù)是不同的。這歸因于MML的差異。由于CML不提供人為因素,因此必須使用兩步排序過(guò)程。

問(wèn)題特征曲線

問(wèn)題特征曲線:

plot(res.rasch)

在這里,我們需要能夠根據(jù)學(xué)生的潛能來(lái)預(yù)測(cè)學(xué)生正確答題的概率。我所做的是使用邏輯方程式預(yù)測(cè)概率。獲得該數(shù)值,就很容易計(jì)算預(yù)測(cè)概率。由于我使用循環(huán)來(lái)執(zhí)行此操作,因此我還要計(jì)算問(wèn)題信息,該信息是預(yù)測(cè)概率乘以1-預(yù)測(cè)概率。

##?GGPLOT可視化ggplot(test.info.df,?aes(x?=?theta,?y?=?prob,?colour?=?reorder(item,?diff,?mean)))?+??geom_line()?+ct?response",?colour?=?"Item",

下面將逐項(xiàng)繪制

ggplot(test.info.df,?aes(x?=?theta,?y?=?prob))?+?geom_line()?+ ??scale_x_continuous(breaks?=?seq(-6,?6,?2),?limits?=?c(-4,?4))?+ ??scale_y_continuous(labels?=?percent,?breaks?=?seq(0,?1,?.

個(gè)體參數(shù)圖

plot(person.parameter(res.rasch))

我們需要估計(jì)的個(gè)體能力:

ggplot(raschdat1.long,?aes(x?=?tot,?y?=?ability))?+ ??geom_point(shape?=?1,?size?=?2)?+?geom_line()?+ ??scale_x_continuous(breaks?=?1:26)?+? ??theme_classic()

問(wèn)題均方擬合

對(duì)于infit MSQ,執(zhí)行相同的計(jì)算。

eRm:

ggplot(item.fit.df,?aes(x?=?mml,?y?=?cml))?+ ??scale_x_continuous(breaks?=?seq(0,?2,?.1))?+ ??scale_y_continuous(breaks?=?seq(0,?2,?.1))

似乎CML的MSQ幾乎總是比多層次模型(MML)的MSQ高。

eRm:

來(lái)自CML的MSQ幾乎總是比來(lái)自多層次模型(MML)的MSQ高。我使用傳統(tǒng)的臨界值來(lái)識(shí)別不適合的人。

測(cè)試信息

eRm:

plotINFO(res.rasch)

創(chuàng)建ICC計(jì)算測(cè)試信息時(shí),我們已經(jīng)完成了上述工作。對(duì)于總體測(cè)試信息,我們需要對(duì)每個(gè)問(wèn)題的測(cè)試信息進(jìn)行匯總:

最后,我認(rèn)為使用標(biāo)準(zhǔn)測(cè)量誤差(SEM),您可以創(chuàng)建一個(gè)置信區(qū)間帶狀圖。SEM是測(cè)試信息的反函數(shù)。

該圖表明,對(duì)于一個(gè)估計(jì)的能力為-3的個(gè)體,他們的能力的估計(jì)精度很高,他們的實(shí)際分?jǐn)?shù)可能在-1.5和-4.5之間。

經(jīng)過(guò)這一工作,我可以更好地理解該模型,以及其中的一些內(nèi)容診斷。

點(diǎn)擊文末?“閱讀原文”

獲取全文完整資料。

本文選自《R語(yǔ)言使用Rasch模型分析學(xué)生答題能力》。

點(diǎn)擊標(biāo)題查閱往期內(nèi)容

數(shù)據(jù)分享|PYTHON用PYSTAN貝葉斯IRT模型擬合RASCH模型分析學(xué)生考試問(wèn)題數(shù)據(jù)
R語(yǔ)言IRT理論:擴(kuò)展Rasch模型等級(jí)量表模型lltm、 rsm 和 pcm模型分析心理和教育測(cè)驗(yàn)數(shù)據(jù)可視化
R語(yǔ)言擬合擴(kuò)展Rasch模型分析試題質(zhì)量
R語(yǔ)言使用Rasch模型分析學(xué)生答題能力
R語(yǔ)言中的BP神經(jīng)網(wǎng)絡(luò)模型分析學(xué)生成績(jī)
R語(yǔ)言方差分析(ANOVA)學(xué)生參加輔導(dǎo)課考試成績(jī)差異
數(shù)據(jù)視域下圖書(shū)館話題情感分析
探析大數(shù)據(jù)期刊文章研究熱點(diǎn)
R語(yǔ)言LME4混合效應(yīng)模型研究教師的受歡迎程度
疫情下的在線教學(xué)數(shù)據(jù)觀使用SAS,Stata,HLM,R,SPSS和Mplus的分層線性模型HLM


R語(yǔ)言使用Rasch模型分析學(xué)生答題能力|附代碼數(shù)據(jù)的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
独山县| 青铜峡市| 汉中市| 开封市| 南京市| 宁乡县| 遵义市| 柏乡县| 永年县| 威宁| 道孚县| 嘉善县| 柳州市| 巨野县| 镇平县| 阿坝| 云梦县| 定结县| 黑河市| 泸定县| 西充县| 永仁县| 治县。| 台前县| 屯留县| 探索| 包头市| 分宜县| 海林市| 湖南省| 南乐县| 旬邑县| 杭锦旗| 云霄县| 永宁县| 泾川县| 肃宁县| 汤原县| 峨眉山市| 兴业县| 田东县|