留學(xué) | 解析考試AI ChatGPT:究竟是大學(xué)生的“神器”還是“魔咒”?

隨著考試季的到來,學(xué)生們可能會(huì)為了取得好成績而使用新的人工智能工具。大學(xué)一直在致力于學(xué)習(xí)并指導(dǎo)如何使用像ChatGPT這樣的AI應(yīng)用。ChatGPT是一種可以使用類似人類語言回答問題(包括撰寫文章和電子郵件)的在線工具。但出現(xiàn)了一個(gè)更關(guān)鍵的問題,學(xué)生究竟可否使用ChatGPT完成作業(yè)和考試?

【圖片來自網(wǎng)絡(luò)】
ChatGPT幾乎能達(dá)到100%的正確率,遠(yuǎn)遠(yuǎn)超出了人們的預(yù)期。但他無法處理好更復(fù)雜的需要進(jìn)行批判性思考的問題,需要學(xué)生進(jìn)行批判性思考。
例如,一道來自最后一年的考試題目是:“為什么超重的人需要了解與營養(yǎng)狀況相關(guān)的運(yùn)動(dòng)?”,ChatGPT給出的答案很明顯不是由學(xué)生撰寫的。

【圖片來自網(wǎng)絡(luò)】
初看之下,這是篇很不錯(cuò)的文章,表達(dá)清晰,語言也相當(dāng)專業(yè)。但在引言和結(jié)論中,它只能以不同的方式復(fù)述完全相同的措辭,并且采用學(xué)術(shù)作品的標(biāo)準(zhǔn)捏造引用信息的來源。

【圖片來自網(wǎng)絡(luò)】
自從ChatGPT向公眾發(fā)布以來,許多學(xué)生都不清楚到底何時(shí)可以使用它。教育大臣吉莉安·基根在周一的演講中表示,人工智能已經(jīng)在學(xué)校中產(chǎn)生了影響,建議學(xué)??梢允褂盟o助完成制定課程計(jì)劃和批改作業(yè)。
英國大學(xué)評(píng)審標(biāo)準(zhǔn)的質(zhì)量保證機(jī)構(gòu)最新的建議大學(xué)教導(dǎo)學(xué)生使用能夠應(yīng)用于職場的人工智能。市場營銷講師金·瓦茨將其稱為“工具箱中的另一個(gè)工具”。在她所在的系里,一些學(xué)生已經(jīng)在這學(xué)期開始使用ChatGPT,在要求他們在制定市場營銷計(jì)劃的課程中使用該工具。她建議學(xué)生可以通過ChatGPT的提示溝通尋找思路。

【圖片來自網(wǎng)絡(luò)】
“批判性思維”Kim通過ChatGPT生成了一份自己的市場營銷計(jì)劃,這份計(jì)劃包含了從創(chuàng)建品牌標(biāo)識(shí)到使用社交媒體的全過程。但是,金表示ChatGPT的計(jì)劃缺乏詳細(xì)性,沒有展示出任何學(xué)習(xí)過程,也沒有展示出批判性思維。任何選擇使用ChatGPT的學(xué)生都需要提交他們與ChatGPT的交流過程,以便清楚地判斷他們是如何使用這個(gè)輔助性工具的。
夏季考試與大多數(shù)大學(xué)一樣,巴斯大學(xué)仍在制定ChatGPT和其他AI工具的政策。該政策預(yù)計(jì)將從9月份開始實(shí)施。許多教職員工再次組織面對面監(jiān)考的夏季考試。負(fù)責(zé)設(shè)計(jì)評(píng)估的團(tuán)隊(duì)負(fù)責(zé)人Chris Bonfield博士表示,今年學(xué)生不可以使用ChatGPT。技術(shù)發(fā)展的速度給大學(xué)帶來了許多挑戰(zhàn),但巴斯大學(xué)迅速放棄了禁止使用ChatGPT的討論。

【圖片來自網(wǎng)絡(luò)】
“太危險(xiǎn)”上周,人工智能教父的Geoffrey Hinton辭去了谷歌的職務(wù),他表示聊天機(jī)器人可能很快就會(huì)比人類更聰明。
赫瑞瓦特大學(xué)的計(jì)算機(jī)科學(xué)家Verena Rieser教授已經(jīng)在人工智能領(lǐng)域工作二十年了,她說她自己的學(xué)生正在“以非常有創(chuàng)意的方式使用它”。但聊天機(jī)器人的發(fā)展仍處于早期階段,學(xué)生們可能會(huì)使用它來產(chǎn)生錯(cuò)誤的信息。在ChatGPT發(fā)布之前,大家認(rèn)為它們“太危險(xiǎn)”了。開發(fā)ChatGPT的OpenAI表示,“像任何技術(shù)一樣,這些工具都存在真正的風(fēng)險(xiǎn)”,并且他們的工作就是確保系統(tǒng)各個(gè)層面的安全。
自從ChatGPT推出以來,其他公司也將精力集中在人工智能上。例如,谷歌發(fā)布了Bard,僅供成年人使用。
Verena表示:“我希望很快就會(huì)看到其他公司推出不同風(fēng)格的ChatGPT,希望能夠推出更安全的模型減輕實(shí)際可能存在的危險(xiǎn)。目前我們并不知道如何阻止模型輸出錯(cuò)誤的信息,這仍然是一個(gè)很大的問題?!?/p>