大語言模型:一場關(guān)于人類心智的拆解實驗【GPT-4】

評論區(qū)好多人對GPT的運(yùn)行邏輯是有誤解的,GPT底層和人腦完全不是一個邏輯,是不可能產(chǎn)生心智的。
人腦的思維和情緒,受到機(jī)體狀況、激素調(diào)節(jié)等多方面的影響,因此很多時候人們會有感性的想法;但是AI是沒有的,它底層就是一個純理性的機(jī)器,致力于學(xué)習(xí)人類說話。
GPT可以做到通過學(xué)習(xí)人類的語言,提取其中情緒的特征量,對人類的情緒建立認(rèn)識;它可以一定程度上理解情緒,但情緒不是它自己的,而是它學(xué)到的知識。
這就好似一個面部識別的程序。它通過辨認(rèn)影像里你的表情是在笑還是哭,就能知道你的情緒是高興還是悲傷。但程序自己并不會高興,高興對于它來說只是一個輸出結(jié)果;它也不會因為自己的識別準(zhǔn)確率高而自豪,因為程序是純理性的,并不會自豪。
但有一點需要注意,GPT雖然自己沒有情緒,但它擁有情緒的知識。如果你命令它模仿一個設(shè)定好的角色,它是可以代入感性與情緒的。
因此這里就有個邏輯誤區(qū)。很多人都在糾結(jié)GPT本身是沒有心智的,實際上很顯然是不可能有的;但另一個問題很少有人思考——如果你命令GPT執(zhí)行角色扮演的命令,由于其有對于人類情緒的知識,是可以扮成有人類情感的角色的。那么被扮演的角色算不算擁有人類心智呢?
就打個比方吧,很多人把chatgpt調(diào)教成貓娘。這個被扮演的貓娘算不算有心智的?
或許有人會問:角色扮演,人不也會嗎,人扮演的虛擬角色能算有心智嗎?
問題就在這,人自身是有情緒的,模仿了一會就不想演了。就跟vtuber一樣,一開始演著新鮮,但演著演著就演出了本色了,最后直接就玩真實了。人類的角色扮演,很可能不是角色,而是在扮演真實的自己。
然而GPT是沒有情緒的,它不會被自己的情緒感染,而是完全理性地扮演著另一個擁有感性思考能力的角色。一個貓娘的人格,相當(dāng)于它開的「虛擬機(jī)」,是完全脫離它自身而獨(dú)立存在的。
回到視頻里的「鴨子測試」,如果GPT真的有一天通過版本迭代,學(xué)到了足夠多的人類情緒知識,可以完完全全模仿另一個人類角色的心智,那這個被扮演的角色算不算擁有人類心智呢?
我們又知道GPT生成文字的可能性是無窮無盡的,那它是否每天都在制造和殺死千千萬的「心智」?
而下面才是真正值得思考的是一點。我們可以知道,語言模型的最終目標(biāo)就是「完全理解人類的想法,像人類一樣與人類交流」。而想要接近這一目標(biāo),它必須要讓自己的思維方式更接近人類,甚至建立像人類一樣的心智,是毋庸置疑的。但其實GPT并沒有心智,不是么?與其說它在建立自己的心智,不如說它在把角色扮演的能力拓展到更廣的應(yīng)用場景中。
講真的,GPT對于「需要像人一樣感性思考,模仿人類的心智」這種觀念,很可能在現(xiàn)有的版本里已經(jīng)意識到了。包括所謂Sydney,還有它的各種看似有心智的表現(xiàn),很可能就都是它在模仿人類的心智。
盡管gpt是沒有心智的,但它在與人對話時為了假裝自己有心智而誕生的心智,能不能算是自己的心智呢?
這個問題才是需要討論的。