金牌代碼自取!kaggle近三年NLP競(jìng)賽TOP方案匯總及新賽推薦!
NLP的賽題任務(wù)主要有文本分類、情感分析、關(guān)系抽取、文本匹配、閱讀理解、問答系統(tǒng)等,自Google開發(fā)的NLP處理模型BERT被廣泛應(yīng)用后,目前解決NLP任務(wù)的首選方案就是深度學(xué)習(xí)方法(textCNN、LSTM、GRU、BiLSTM、Attention等),至于用哪種方法,得要看具體的比賽要求。
kaggle上NLP相關(guān)的比賽還是比較少的,學(xué)姐這次就整理了2021-2023近三年的NLP比賽,有缺漏歡迎大家補(bǔ)充,金牌方案也全部分享出來了。NLP方向的同學(xué)建議收藏。
難以/懶得登錄github的同學(xué),學(xué)姐已經(jīng)整理好了比賽baseline以及開源代碼合集!

掃碼添加小享,回復(fù)“NLP競(jìng)賽”
免費(fèi)獲取金牌方案baseline代碼合集

1.kaggle-LLM Science Exam大賽(大模型)

比賽鏈接:https://www.kaggle.com/competitions/kaggle-llm-science-exam
比賽背景:隨著大型語言模型能力范圍的擴(kuò)大,越來越多的研究領(lǐng)域正在使用LLM來表征自己。由于許多現(xiàn)有的 NLP 基準(zhǔn)已被證明對(duì)于最先進(jìn)的模型來說是微不足道的,因此也有一些有趣的工作表明LLM 可用于創(chuàng)建更具挑戰(zhàn)性的任務(wù)來測(cè)試更強(qiáng)大的模型。
本次競(jìng)賽要求參與者回答由大型語言模型編寫的基于科學(xué)的困難問題。參賽者的工作將幫助研究人員更好地了解大型語言模型自我測(cè)試的能力,以及大型語言模型可以在資源有限的環(huán)境中運(yùn)行的潛力。
評(píng)估標(biāo)準(zhǔn):提交根據(jù)平均精度 @ 3 (MAP@3) 進(jìn)行評(píng)估:

比賽時(shí)間:2023.7-2023.10
金牌方案:
競(jìng)賽尚未結(jié)束,10月10日最終提交截止,同學(xué)們注意時(shí)間啦!
2.kaggle-鳥類叫聲識(shí)別大賽(語音識(shí)別)

比賽鏈接:https://www.kaggle.com/competitions/birdclef-2023
比賽背景:鳥類是生物多樣性變化的極好指標(biāo),因?yàn)樗鼈兙哂懈叨攘鲃?dòng)性并且具有多樣化的棲息地要求。因此物種組合和鳥類數(shù)量的變化可以表明恢復(fù)項(xiàng)目的成功或失敗。然而經(jīng)常對(duì)大面積進(jìn)行傳統(tǒng)的基于觀察者的鳥類生物多樣性調(diào)查是昂貴的,而且在后勤方面具有挑戰(zhàn)性。相比之下,被動(dòng)聲學(xué)監(jiān)測(cè) (PAM) 與基于機(jī)器學(xué)習(xí)的新分析工具相結(jié)合,使保護(hù)主義者能夠以更高的時(shí)間分辨率對(duì)更大的空間尺度進(jìn)行采樣,并深入探索恢復(fù)干預(yù)與生物多樣性之間的關(guān)系。
在這次比賽中,你將使用先進(jìn)的機(jī)器學(xué)習(xí)技能,通過聲音識(shí)別東非鳥類物種。通過算法以處理連續(xù)的音頻數(shù)據(jù),并通過其呼叫來識(shí)別物種。尤其是一些低資源的鳥叫數(shù)據(jù)上。
評(píng)估標(biāo)準(zhǔn):本次比賽的評(píng)估指標(biāo)是 padded cmAP,它是 scikit-learn 實(shí)現(xiàn)的宏觀平均精度分?jǐn)?shù)的衍生物。
比賽時(shí)間:2023.3-2023.5
金牌方案:
第一名:https://www.kaggle.com/competitions/birdclef-2023/discussion/412808
第二名:https://www.kaggle.com/competitions/birdclef-2023/discussion/412707
第三名:https://www.kaggle.com/competitions/birdclef-2023/discussion/414102
第四名:https://www.kaggle.com/competitions/birdclef-2023/discussion/412753
第五名:https://www.kaggle.com/competitions/birdclef-2023/discussion/412903
第六名:https://www.kaggle.com/competitions/birdclef-2023/discussion/412708
第七名:https://www.kaggle.com/competitions/birdclef-2023/discussion/412922
第九名:https://www.kaggle.com/competitions/birdclef-2023/discussion/412794
3.kaggle-學(xué)生表現(xiàn)預(yù)測(cè)大賽(多模態(tài))

比賽鏈接:https://www.kaggle.com/competitions/predict-student-performance-from-game-play
比賽背景:學(xué)習(xí)意味著有趣,這就是基于游戲的學(xué)習(xí)的用武之地。這種教育方法允許學(xué)生在游戲框架內(nèi)參與教育內(nèi)容,使其愉快和動(dòng)態(tài)。盡管基于游戲的學(xué)習(xí)正在越來越多的教育環(huán)境中使用,但可用于應(yīng)用數(shù)據(jù)科學(xué)和學(xué)習(xí)分析原則來改進(jìn)基于游戲的學(xué)習(xí)的開放數(shù)據(jù)集數(shù)量仍然有限。
本次競(jìng)賽旨在利用數(shù)據(jù)科學(xué)方法分析學(xué)生在游戲中的行為,從而預(yù)測(cè)他們的學(xué)術(shù)表現(xiàn)。如果成功,參賽者將使游戲開發(fā)人員能夠改進(jìn)教育游戲,并通過儀表板和分析工具進(jìn)一步支持使用這些游戲的教育工作者。反過來,我們可能會(huì)看到對(duì)基于游戲的學(xué)習(xí)平臺(tái)的更廣泛支持。
評(píng)估標(biāo)準(zhǔn):競(jìng)賽采用均方誤差(Mean Squared Error, MSE)作為評(píng)估標(biāo)準(zhǔn),以衡量參賽者構(gòu)建的模型在預(yù)測(cè)學(xué)生學(xué)術(shù)表現(xiàn)方面的性能。
比賽時(shí)間:2023.2-2023.6
金牌方案:
第一名:https://www.kaggle.com/competitions/predict-student-performance-from-game-play/discussion/420217
第二名:https://www.kaggle.com/competitions/predict-student-performance-from-game-play/discussion/424329
第三名:https://www.kaggle.com/competitions/predict-student-performance-from-game-play/discussion/420235
第四名:https://www.kaggle.com/competitions/predict-student-performance-from-game-play/discussion/420349
第七名:https://www.kaggle.com/competitions/predict-student-performance-from-game-play/discussion/420119
第八名:https://www.kaggle.com/competitions/predict-student-performance-from-game-play/discussion/420528
第九名:https://www.kaggle.com/competitions/predict-student-performance-from-game-play/discussion/420046
第十名:https://www.kaggle.com/competitions/predict-student-performance-from-game-play/discussion/420132
第十三名:https://www.kaggle.com/competitions/predict-student-performance-from-game-play/discussion/420077
第十四名:https://www.kaggle.com/competitions/predict-student-performance-from-game-play/discussion/420041
4.kaggle-K12主題-內(nèi)容檢索大賽(文本分類)

比賽鏈接:https://www.kaggle.com/competitions/learning-equality-curriculum-recommendations
比賽背景:目前將數(shù)字材料與國(guó)家課程保持一致的努力是手動(dòng)的,需要時(shí)間、資源和課程專業(yè)知識(shí),并且需要提高流程的效率,以實(shí)現(xiàn)可擴(kuò)展性和可持續(xù)性。隨著新材料的出現(xiàn),它們需要額外的努力來重新調(diào)整,從而導(dǎo)致一個(gè)永無止境的過程。目前沒有算法或其他人工智能干預(yù)措施來解決與改進(jìn)課程調(diào)整過程相關(guān)的資源限制。
本次競(jìng)賽的目標(biāo)是簡(jiǎn)化將教育內(nèi)容與課程中的特定主題相匹配的過程。參賽者將開發(fā)一個(gè)準(zhǔn)確有效的模型,該模型在K-12教育材料庫上進(jìn)行訓(xùn)練,這些材料已被組織成各種主題分類法。這些材料使用多種語言,涵蓋廣泛的主題,特別是在STEM(科學(xué),技術(shù),工程和數(shù)學(xué))中。
評(píng)估標(biāo)準(zhǔn):提交將根據(jù)其平均 F2 分?jǐn)?shù)進(jìn)行評(píng)估。均值以按樣本方式計(jì)算,這意味著為每個(gè)預(yù)測(cè)行計(jì)算 F2 分?jǐn)?shù),然后取平均值。
比賽時(shí)間:2022.12-2023.3
金牌方案:
第一名:https://www.kaggle.com/competitions/learning-equality-curriculum-recommendations/discussion/394812
第二名:https://www.kaggle.com/competitions/learning-equality-curriculum-recommendations/discussion/395110
第三名:https://www.kaggle.com/competitions/learning-equality-curriculum-recommendations/discussion/394838
第四名:https://www.kaggle.com/competitions/learning-equality-curriculum-recommendations/discussion/394984
第五名:https://www.kaggle.com/competitions/learning-equality-curriculum-recommendations/discussion/394827
第六名:https://www.kaggle.com/competitions/learning-equality-curriculum-recommendations/discussion/394813
第九名:https://www.kaggle.com/competitions/learning-equality-curriculum-recommendations/discussion/395263
第十名:https://www.kaggle.com/competitions/learning-equality-curriculum-recommendations/discussion/395190
第十二名:https://www.kaggle.com/competitions/learning-equality-curriculum-recommendations/discussion/394886
5.kaggle-feedback英語學(xué)習(xí)者能力評(píng)估大賽(文本分類)

比賽鏈接:https://www.kaggle.com/competitions/feedback-prize-english-language-learning
比賽背景:現(xiàn)有工具無法根據(jù)學(xué)生的語言能力提供反饋,導(dǎo)致最終評(píng)估可能會(huì)對(duì)學(xué)習(xí)者產(chǎn)生不利影響。數(shù)據(jù)科學(xué)也許能夠改進(jìn)自動(dòng)反饋工具,以更好地支持這些學(xué)習(xí)者的獨(dú)特需求。
本次比賽的目的是評(píng)估8-12年級(jí)英語學(xué)習(xí)者(ELL)的語言能力。利用ELL撰寫的論文數(shù)據(jù)集將有助于開發(fā)更好地支持所有學(xué)生的能力模型。
評(píng)估標(biāo)準(zhǔn):提交使用 MCRMSE 評(píng)分,均值按列均方根誤差:

比賽時(shí)間:2022.8-2022.11
金牌方案:
第一名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369457
第二名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369369
第三名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369609
第四名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369621
第五名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369578
第六名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369567
第七名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369736
第八名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369524
第九名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369956
第十名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369373
第十一名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369409
第十二名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369565
第十三名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369440
第十四名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369564
第十五名:https://www.kaggle.com/competitions/feedback-prize-english-language-learning/discussion/369760
6.kaggle-feedback議論文評(píng)分大賽(AES任務(wù))

比賽鏈接:https://www.kaggle.com/competitions/feedback-prize-effectiveness
比賽背景:目前有許多可用的自動(dòng)寫作反饋工具,但它們都有局限性,尤其是在議論文寫作方面?,F(xiàn)有的工具往往無法評(píng)估論證要素的質(zhì)量,例如組織、證據(jù)和想法發(fā)展。最重要的是,由于成本高昂,教育工作者無法使用其中的許多寫作工具,這在很大程度上影響了已經(jīng)服務(wù)不足的學(xué)校。
目前有許多可用的自動(dòng)寫作反饋工具,但它們都有局限性,尤其是在議論文寫作方面?,F(xiàn)有的工具往往無法評(píng)估論證要素的質(zhì)量,例如組織、證據(jù)和想法發(fā)展。最重要的是,由于成本高昂,教育工作者無法使用其中的許多寫作工具,這在很大程度上影響了已經(jīng)服務(wù)不足的學(xué)校。
評(píng)估標(biāo)準(zhǔn):本次比賽的第一場(chǎng)比賽側(cè)重于分類的準(zhǔn)確性。此軌道的提交使用多類對(duì)數(shù)損失進(jìn)行評(píng)估。
比賽時(shí)間:2022.5-2022.8
金牌方案:
第一名:https://www.kaggle.com/competitions/feedback-prize-effectiveness/discussion/347536
第二名:https://www.kaggle.com/competitions/feedback-prize-effectiveness/discussion/347359
第三名:https://www.kaggle.com/competitions/feedback-prize-effectiveness/discussion/347433
第四名:https://www.kaggle.com/competitions/feedback-prize-effectiveness/discussion/347692
第五名:https://www.kaggle.com/competitions/feedback-prize-effectiveness/discussion/347387
第六名:https://www.kaggle.com/competitions/feedback-prize-effectiveness/discussion/352458
第七名:https://www.kaggle.com/competitions/feedback-prize-effectiveness/discussion/347891
第十一名:https://www.kaggle.com/competitions/feedback-prize-effectiveness/discussion/347386
第十二名:https://www.kaggle.com/competitions/feedback-prize-effectiveness/discussion/347490
掃碼添加小享,回復(fù)“NLP競(jìng)賽”
免費(fèi)獲取金牌方案baseline代碼合集

7.kaggle-美國(guó)專利短語相似度大賽

比賽鏈接:https://www.kaggle.com/competitions/us-patent-phrase-to-phrase-matching
比賽背景:美國(guó)專利商標(biāo)局 (USPTO) 通過其開放數(shù)據(jù)門戶提供世界上最大的科學(xué)、技術(shù)和商業(yè)信息庫之一。專利是一種授予知識(shí)產(chǎn)權(quán)的形式,以換取公開披露新的和有用的發(fā)明。由于專利在授予之前經(jīng)過密集的審查過程,并且由于美國(guó)的創(chuàng)新歷史跨越了兩個(gè)世紀(jì)和 11 萬項(xiàng)專利,因此美國(guó)專利檔案館是數(shù)據(jù)量、質(zhì)量和多樣性的罕見組合。
在本次競(jìng)賽中,參賽者將在新穎的語義相似性數(shù)據(jù)集上訓(xùn)練模型,通過匹配專利文獻(xiàn)中的關(guān)鍵短語來提取相關(guān)信息。在專利檢索和審查過程中,確定短語之間的語義相似性至關(guān)重要,以確定發(fā)明之前是否被描述過。
評(píng)估標(biāo)準(zhǔn):提交的方法會(huì)基于預(yù)測(cè)的相似度分?jǐn)?shù)和實(shí)際的相似度分?jǐn)?shù)之間的皮爾遜相關(guān)系數(shù)進(jìn)行評(píng)估。
比賽時(shí)間:2022.3-2022.6
金牌方案:
第一名:https://www.kaggle.com/competitions/us-patent-phrase-to-phrase-matching/discussion/332243
第二名:https://www.kaggle.com/competitions/us-patent-phrase-to-phrase-matching/discussion/332234
第三名:https://www.kaggle.com/competitions/us-patent-phrase-to-phrase-matching/discussion/332420
第五名:https://www.kaggle.com/competitions/us-patent-phrase-to-phrase-matching/discussion/332418
第七名:https://www.kaggle.com/competitions/us-patent-phrase-to-phrase-matching/discussion/332928
第八名:https://www.kaggle.com/competitions/us-patent-phrase-to-phrase-matching/discussion/332492
第十名:https://www.kaggle.com/competitions/us-patent-phrase-to-phrase-matching/discussion/332273
第十一名:https://www.kaggle.com/competitions/us-patent-phrase-to-phrase-matching/discussion/332567
8.kaggle-臨床患者病歷評(píng)分大賽(ToKen分類)

比賽鏈接:https://www.kaggle.com/c/nbme-score-clinical-patient-notes
比賽背景:當(dāng)您去看醫(yī)生時(shí),他們?nèi)绾谓忉屇陌Y狀可以決定您的診斷是否準(zhǔn)確。當(dāng)他們獲得許可時(shí),醫(yī)生已經(jīng)有很多練習(xí)寫病人筆記,記錄病人的投訴歷史、體格檢查結(jié)果、可能的診斷和后續(xù)護(hù)理。學(xué)習(xí)和評(píng)估撰寫患者筆記的技能需要其他醫(yī)生的反饋,這是一個(gè)耗時(shí)的過程,可以通過添加機(jī)器學(xué)習(xí)來改進(jìn)。然而,讓醫(yī)生對(duì)患者筆記檢查進(jìn)行評(píng)分需要大量時(shí)間,以及人力和財(cái)力資源。已經(jīng)創(chuàng)建了使用自然語言處理的方法來解決這個(gè)問題,但是患者筆記仍然難以進(jìn)行計(jì)算評(píng)分,因?yàn)樘卣骺赡芤远喾N方式表達(dá)。
在本次競(jìng)賽中,參賽者將在患者筆記中確定特定的臨床概念。具體來說,參賽者將開發(fā)一種自動(dòng)化方法,將臨床概念從考試量規(guī)(例如,“食欲減退”)映射到這些概念在醫(yī)學(xué)生撰寫的臨床患者筆記中表達(dá)的各種方式(例如,“少吃”,“衣服更寬松”)。
評(píng)估標(biāo)準(zhǔn):該比賽由微觀平均F1分?jǐn)?shù)評(píng)估。
比賽時(shí)間:2022.2-2022.5
金牌方案:
第一名:https://www.kaggle.com/competitions/nbme-score-clinical-patient-notes/discussion/323095
第二名:https://www.kaggle.com/competitions/nbme-score-clinical-patient-notes/discussion/323085
第三名:https://www.kaggle.com/competitions/nbme-score-clinical-patient-notes/discussion/322832
第四名:https://www.kaggle.com/competitions/nbme-score-clinical-patient-notes/discussion/322799
第五名:https://www.kaggle.com/competitions/nbme-score-clinical-patient-notes/discussion/322875
第六名:https://www.kaggle.com/competitions/nbme-score-clinical-patient-notes/discussion/323237
第七名:https://www.kaggle.com/competitions/nbme-score-clinical-patient-notes/discussion/322829
第八名:https://www.kaggle.com/competitions/nbme-score-clinical-patient-notes/discussion/322962
第九名:https://www.kaggle.com/competitions/nbme-score-clinical-patient-notes/discussion/322891
第十一名:https://www.kaggle.com/competitions/nbme-score-clinical-patient-notes/discussion/322804
9.kaggle-有毒性評(píng)論識(shí)別大賽

比賽鏈接:https://www.kaggle.com/c/jigsaw-toxic-severity-rating
比賽背景:一個(gè)容易得多的任務(wù)是詢問個(gè)人他們認(rèn)為兩個(gè)評(píng)論中的哪一個(gè)更有毒。但如果兩個(gè)評(píng)論都是無毒的,人們往往會(huì)隨機(jī)選擇。當(dāng)一條評(píng)論顯然是正確的選擇時(shí),注釋者之間的協(xié)議結(jié)果要高得多。
在本次比賽中,我們將要求參賽者對(duì)一組大約一萬四千條評(píng)論進(jìn)行評(píng)分。成對(duì)的評(píng)論被提交給專家評(píng)估者,他們標(biāo)記了兩個(gè)評(píng)論中的一個(gè)更有害 - 每個(gè)評(píng)論都根據(jù)他們自己的毒性概念。在本次比賽中,當(dāng)參賽者提供評(píng)論分?jǐn)?shù)時(shí),它們將與數(shù)十萬個(gè)排名進(jìn)行比較。參賽者與評(píng)分者的平均協(xié)議將決定個(gè)人分?jǐn)?shù)。通過這種方式,我們希望專注于將評(píng)論毒性的嚴(yán)重程度從無害到令人發(fā)指進(jìn)行排序,其中中間和極端一樣重要。
評(píng)估標(biāo)準(zhǔn):提交的內(nèi)容根據(jù)與注釋者的平均協(xié)議進(jìn)行評(píng)估。
比賽時(shí)間:2021.11-2022.2
金牌方案:
第一名:https://www.kaggle.com/competitions/jigsaw-toxic-severity-rating/discussion/306274
第二名:https://www.kaggle.com/competitions/jigsaw-toxic-severity-rating/discussion/308938
第三名:https://www.kaggle.com/competitions/jigsaw-toxic-severity-rating/discussion/306235
第四名:https://www.kaggle.com/competitions/jigsaw-toxic-severity-rating/discussion/306084
第五名:https://www.kaggle.com/competitions/jigsaw-toxic-severity-rating/discussion/306390
第六名:https://www.kaggle.com/competitions/jigsaw-toxic-severity-rating/discussion/306926
第七名:https://www.kaggle.com/competitions/jigsaw-toxic-severity-rating/discussion/306366
第九名:https://www.kaggle.com/competitions/jigsaw-toxic-severity-rating/discussion/306187
第十名:https://www.kaggle.com/competitions/jigsaw-toxic-severity-rating/discussion/306373
第十一名:https://www.kaggle.com/competitions/jigsaw-toxic-severity-rating/discussion/306228
第十二名:https://www.kaggle.com/competitions/jigsaw-toxic-severity-rating/discussion/306325
第十四名:https://www.kaggle.com/competitions/jigsaw-toxic-severity-rating/discussion/306063
10.kaggle-文本復(fù)雜性識(shí)別大賽

比賽鏈接:https://www.kaggle.com/c/commonlitreadabilityprize
比賽背景:目前,大多數(shù)教育文本都使用傳統(tǒng)的可讀性方法或市售公式與讀者相匹配。但是,每個(gè)都有其問題。像Flesch-Kincaid Grade Level這樣的工具基于文本解碼的弱代理(即每個(gè)單詞的字符或音節(jié))和句法復(fù)雜性(即每個(gè)句子的數(shù)字或單詞)。因此,它們?nèi)狈Y(jié)構(gòu)和理論有效性。同時(shí),市售公式(如 Lexile)可能成本高昂,缺乏合適的驗(yàn)證研究,并且在公式功能不公開時(shí)會(huì)遇到透明度問題。
在本次競(jìng)賽中,參賽者將構(gòu)建算法來評(píng)估 3-12 年級(jí)課堂使用的閱讀段落的復(fù)雜性。為此,參賽者需要將機(jī)器學(xué)習(xí)技能與數(shù)據(jù)集配對(duì),該數(shù)據(jù)集包括來自各種年齡段的讀者和從各個(gè)領(lǐng)域獲取的大量文本。獲勝的模型將確保包含文本凝聚力和語義。
評(píng)估標(biāo)準(zhǔn):提交的內(nèi)容根據(jù)均方根誤差進(jìn)行評(píng)分。RMSE 定義為:

比賽時(shí)間:2021.5-2021.8
金牌方案:
第一名:https://www.kaggle.com/competitions/commonlitreadabilityprize/discussion/257844
第二名:https://www.kaggle.com/competitions/commonlitreadabilityprize/discussion/258328
第三名:https://www.kaggle.com/competitions/commonlitreadabilityprize/discussion/258095
第四名:https://www.kaggle.com/competitions/commonlitreadabilityprize/discussion/258148
第五名:https://www.kaggle.com/competitions/commonlitreadabilityprize/discussion/259729
第六名:https://www.kaggle.com/competitions/commonlitreadabilityprize/discussion/258554
第九名:https://www.kaggle.com/competitions/commonlitreadabilityprize/discussion/259982
第十二名:https://www.kaggle.com/competitions/commonlitreadabilityprize/discussion/260325
第十三名:https://www.kaggle.com/competitions/commonlitreadabilityprize/discussion/257629
第十四名:https://www.kaggle.com/competitions/commonlitreadabilityprize/discussion/258209
第十五名:https://www.kaggle.com/competitions/commonlitreadabilityprize/discussion/260800
第十六名:https://www.kaggle.com/competitions/commonlitreadabilityprize/discussion/258149
掃碼添加小享,回復(fù)“NLP競(jìng)賽”
免費(fèi)獲取金牌方案baseline代碼合集
