kaggle比賽案例:用人工智能幫老師批改作文 提高學(xué)生閱讀寫作水平

人工智能的技術(shù)應(yīng)用到教育上可以幫助老師快速評估學(xué)生的學(xué)習(xí)程度,更有時(shí)間去進(jìn)行針對性的教學(xué)方式方法的調(diào)整,對癥下藥學(xué)生才能往正確的方向提高。不必覺得它是洪水猛獸,此次kaggle的賽題就是為了解決閱讀和寫作課程評估,提高學(xué)生寫作技能的!
今天不談基礎(chǔ)教育,畢竟學(xué)姐是搞AI的不是搞K12的(●’?’●)~
回歸正題!本次kaggle賽題的基本思路和baseline部分代碼如下。(完整代碼后臺回復(fù)“文本回歸”獲取。)
01?賽題背景

閱讀是取得學(xué)術(shù)成功的一項(xiàng)基本技能。當(dāng)學(xué)生聯(lián)系閱讀挑戰(zhàn)性的文章時(shí),他們自然就會培養(yǎng)閱讀能力。
當(dāng)前教育課本使用傳統(tǒng)的可讀性方法與讀者進(jìn)行匹配。但是它們?nèi)狈?gòu)造和理論有效性。CommonLit 是一家非營利性教育技術(shù)組織,為超過2000萬名師生提供3至12年級的免費(fèi)數(shù)字閱讀和寫作課程。
02?賽題任務(wù)
在本競賽中,您將構(gòu)建算法來評估3-12年級課堂使用的閱讀文章的復(fù)雜程度。賽題數(shù)據(jù)集包括來自各個年齡段的讀者以及來自各個領(lǐng)域的大量文本。獲勝的模型將確保結(jié)合文本銜接和語義。
本競賽開發(fā)的算法將幫助教師和學(xué)生能夠快速準(zhǔn)確地評估課堂作業(yè),學(xué)生同時(shí)也更容易提高基本的閱讀技能。
03?數(shù)據(jù)介紹
為3-12年級的閱讀內(nèi)容劃分等級:

其中每個字段的描述如下:
id:每個不同專家的id
url_legal:代表數(shù)據(jù)的來源,測試集中為空白字符,避免選手知道數(shù)據(jù)的來源
license:數(shù)據(jù)使用許可協(xié)議,測試集為空
target - 可閱讀性的分?jǐn)?shù),越低代表可閱讀性差
standard_error- 衡量每個摘錄的多個評分者之間的分?jǐn)?shù)分布。不包括測試數(shù)據(jù)。
數(shù)據(jù)如下:

主要用到的為文本excerpt和目標(biāo)target,要求選手通過文本構(gòu)建模一個回歸模型,來推斷出具體的分?jǐn)?shù)。就好比如好多學(xué)生在寫作文,把寫好的作文給其他人閱讀,評估下每個人寫好的論文可閱讀性,是否能夠讓人通俗理解。
04?評分指標(biāo)
提交分?jǐn)?shù)是根據(jù)均方根誤差進(jìn)行計(jì)算預(yù)測值與真實(shí)值評分的。RMSE 定義為:

05?基于預(yù)訓(xùn)練模型的文本回歸任務(wù)解決方案
數(shù)據(jù)分析

首先我們看下目標(biāo)值target的具體分布,其中大部分值集中在-1左右,最小值為-4左右,最大值為2:

另外我們可以看下整體語料中的,經(jīng)常實(shí)現(xiàn)的詞以及詞組有哪些:



因?yàn)槭切W(xué)年級的文本語料,所以可以看到大多數(shù)詞匯還是入門級別的常用詞。
預(yù)訓(xùn)練模型-繼續(xù)預(yù)訓(xùn)練
首先導(dǎo)入所需要的包:
預(yù)訓(xùn)練主要參數(shù)設(shè)置:
預(yù)訓(xùn)練任務(wù)MLM的訓(xùn)練如下:
預(yù)訓(xùn)練模型-回歸任務(wù)微調(diào)
導(dǎo)入所需要的包:
自定義數(shù)據(jù)集加載器:
回歸模型構(gòu)建:
06?賽題解析總結(jié)
1.基于baseline的思路,模型多樣性越多精度更好
2.模型多樣性指:Bert,DistilRoberta,Roberta
3.模型參數(shù)多樣性:層隨機(jī)初始化,超參數(shù)差異
(完整代碼關(guān)注公眾號后臺回復(fù)“文本回歸”即可獲?。?/strong>
新的比賽已經(jīng)來了獎金10w美刀
沒人組隊(duì),來找學(xué)姐!
不知如何開始,來找學(xué)姐!
看賽題不知從哪入手,來找學(xué)姐!
