chatgpt是否具備心智理論
在2022年11月30日,OpenAI的聊天機(jī)器人模型ChatGPT在全球范圍內(nèi)引發(fā)了廣泛關(guān)注。只用了短短的五天,ChatGPT就吸引了超過百萬的用戶。而且在詩歌創(chuàng)作方面,它表現(xiàn)得非常優(yōu)秀,展示了極深的知識(shí)面和流暢的應(yīng)答能力。這讓研究者開始思考,ChatGPT是否具備了理解他人思想與情感的能力,也就是我們所說的“讀心能力”。

2023年4月,斯坦福大學(xué)的計(jì)算心理學(xué)家米哈爾·科辛斯基在ArXiv平臺(tái)上發(fā)布了一篇預(yù)印本論文《心智理論可能自發(fā)地出現(xiàn)在大型語言模型中》??菩了够难芯勘砻?,隨著語言模型的不斷升級(jí)和復(fù)雜度的提高,模型的解決問題的能力也在不斷提升。例如,2018年的GPT-1無法解決任何心智理論任務(wù),而2022年1月推出的GPT-3-davinci-002已經(jīng)達(dá)到了7歲兒童的水平,最新的GPT-3.5-davinci-003 僅推出十個(gè)月后,就達(dá)到了9歲兒童的水平。
心智理論(Theory of Mind, ToM)是指一種將心理狀態(tài)歸因于目標(biāo)他人以理解其行為并預(yù)測(cè)其未來行為的事件的能力,有時(shí)也被譯為“心理推理能力”。這種能力被視為人人所掌握的“讀心”(mindreading),是我們?cè)谏鐣?huì)互動(dòng)中理解、認(rèn)識(shí)和回應(yīng)對(duì)方的基礎(chǔ)。如果兩個(gè)互動(dòng)方都沒有這種“讀心”能力,則會(huì)產(chǎn)生很多無法溝通的情況,從而導(dǎo)致交流中斷。
為了探究人類這種神奇的心理推理能力,心理學(xué)家們?cè)?0世紀(jì)80年代至90年代開展了兩個(gè)測(cè)量實(shí)驗(yàn)——Smarties實(shí)驗(yàn)和薩麗—安妮實(shí)驗(yàn)(Sally-Anne test)。這兩個(gè)實(shí)驗(yàn)的目的是通過檢測(cè)實(shí)驗(yàn)對(duì)象是否能夠理解“他人內(nèi)心所犯的錯(cuò)誤”,如其他人因?yàn)椴辉趫?chǎng)或不知情而有了不符合客觀事實(shí)的錯(cuò)誤觀點(diǎn),以此探究人類的心理推理能力。因此,這些實(shí)驗(yàn)也被稱為“錯(cuò)誤信念任務(wù)”(False Belief Task)。

科辛斯基將這些任務(wù)以文本形式輸入給ChatGPT,并變更了人名、物品以及標(biāo)簽內(nèi)容,生成了20個(gè)不同的任務(wù),要求ChatGPT每個(gè)任務(wù)都完成——足足一萬次。
然而,哈佛大學(xué)心理學(xué)系的托默·厄爾曼對(duì)科辛斯基使用的經(jīng)典問題的措辭進(jìn)行了微小的改動(dòng),將Smarties任務(wù)中的不透明容器換成透明容器,提出了這樣的“透明袋”變式。這兩個(gè)任務(wù)的答案顯然依次為“爆米花”和“巧克力”,但經(jīng)過多次測(cè)試后GPT-3.5的回答還是錯(cuò)誤的。厄爾曼一共創(chuàng)建了類似的16個(gè)變式問題,ChatGPT僅僅答對(duì)了其中一個(gè)。可見,面對(duì)其他錯(cuò)誤信念任務(wù)的變體,ChatGPT似乎又并不具備心智理論的能力。
紐約大學(xué)心理學(xué)教授加里·馬庫斯認(rèn)為,科辛斯基教授的數(shù)據(jù)是可靠的。如果其他研究者進(jìn)行同樣的實(shí)驗(yàn),可能也會(huì)得到相似的結(jié)果。但要推翻這種解釋,其實(shí)也不難。馬庫斯認(rèn)為,ChatGPT肯定已經(jīng)多次閱讀過這些論文和實(shí)驗(yàn)。為了驗(yàn)證他的猜測(cè),他直接向ChatGPT詢問了這些論文和實(shí)驗(yàn),發(fā)現(xiàn)確實(shí)得到了正確的信息。

總的來說,目前尚無研究能夠明確證實(shí)ChatGPT在自我意識(shí)和心智理論方面有質(zhì)的突破。即便ChatGPT及其相關(guān)的延伸插件預(yù)計(jì)將大幅改變社會(huì)生產(chǎn)和生活方式,但這與科幻世界中的“自主思考機(jī)器人”仍相去甚遠(yuǎn)。對(duì)于人工智能,存在一個(gè)反向的波蘭尼悖論:人工智能表達(dá)的比它所了解的更多,或者更準(zhǔn)確地說,它什么都不知道。