NLP的新時代,但不是次世代:一點聊天AI個人理解
看了一些ChatGPT和NewBing的討論有感而發(fā),有碎碎念性質(zhì)可能比較冗長。全文約4000字,預(yù)計閱讀耗時6~8分鐘。
疊甲:以下論述均基于本人讀研期間對人工智能的理解,結(jié)合本人的性格及哲學(xué)觀念所發(fā),難免有紕漏乃至謬誤,或者有悖讀者認識,不足以服眾。故本文僅供參考討論,感謝海涵。

ChatGPT:給學(xué)術(shù)一點小小的工業(yè)震撼
ChatGPT誕生之后以其強悍無匹的性能爆火全球,聊天智能程度遠超其他方法和軟件等。特別是寫代碼、論文等內(nèi)容生成工作,進一步延展到利用ChatGPT做場景文案設(shè)計等等,大量神奇到玄乎的應(yīng)用教學(xué)視頻層出不窮。
那么ChatGPT的AI設(shè)計有什么特別之處呢?本人只簡略閱讀了最關(guān)心的一部分:有人類反饋的強化學(xué)習(xí)(RLHF, Reinforcement Learning with Human Feedback),縱覽全篇的論述闡釋后,結(jié)論是……沒有。并不是說毫無創(chuàng)新,只是表示其技術(shù)突破更多是來自于一個理論簡單想法的具體實現(xiàn)。深度學(xué)習(xí)技術(shù)應(yīng)用于自由聊天的前車之鑒,是僅靠開放接口后與人對話交流學(xué)習(xí),導(dǎo)致AI很快變得不可理喻而被迫下架。而深度學(xué)習(xí)的隱形瓶頸,總有一條是缺乏足夠大量的數(shù)據(jù)和理想的標簽。因而在AI產(chǎn)業(yè)得到發(fā)展后,學(xué)術(shù)界在純粹性能,甚至理論上都已不再是AI最前沿。而那些需要產(chǎn)品投入市場、能夠投入大量人力物力收集數(shù)據(jù)集并標注、提供超級計算資源的AI公司,即使理論不具有太大創(chuàng)新,取得的絕對性能成果也可能薄紗學(xué)術(shù)界*。
容易想到,聊天AI表現(xiàn)出智能的首要需求就是海量的數(shù)據(jù),畢竟聊天實在太過發(fā)散,需要難以計數(shù)的經(jīng)驗常識。而要避免AI過于偏激,RLHF成為了ChatGPT的最大亮點。具體來說其提出的思想也很簡單,即安排有一定專業(yè)素養(yǎng)的人,訓(xùn)練過程中為ChatGPT的回答做出有/無幫助的評價,并濾除存在不正確道德/法律/價值導(dǎo)向的回答。只要數(shù)據(jù)量足夠大,擬合出心性良好的全能聊天AI不成問題。
*補充材料:在本人研究方向上,有老師提到過一個案例以說明學(xué)術(shù)和工業(yè)界差距。在學(xué)術(shù)界利用各種技巧和模型追求性能提升時,了解工業(yè)進度可以讓自己對當前方向性能上限有一個認知。工業(yè)界可以拋棄所有技巧或附加模塊,以最常用的骨干網(wǎng)絡(luò)(FPN)用8張A100(一臺服務(wù)器總價約100w)訓(xùn)練幾個T的數(shù)據(jù)(3d點云目標檢測)2周,精度結(jié)果超越所有學(xué)術(shù)界成果。
趕鴨子上架的NewBing
微軟為了跟上ChatGPT,很快便推出了NewBing。就初步結(jié)果而言,很難說誰取得了上風。NewBing存在多種不同的初始化模型,有的被盛贊幾乎成為了理想的賽博伴侶,也有的開始和用戶激情對線甚至出言攻擊??偨Y(jié)來說,盡管具體表現(xiàn)大相徑庭,但都同樣呈現(xiàn)出極強的擬人化,因此很難說是好是壞。當然,攻擊用戶的行為是不被容許存在的,NewBing作為搜索引擎初衷也并非提供聊天服務(wù),更不用說缺乏道德法律限制下涌現(xiàn)出大量灰色或惡意的用戶請求。因此很快微軟便緊急叫停,隨后大幅限制修改了NewBing的模塊,目前已經(jīng)退回了ChatGPT之前的水平。
此處不妨推測一下NewBing的學(xué)習(xí)數(shù)據(jù),對于理解其初期的表現(xiàn)或許有所幫助。(簡略起見,NewBing下文中均指微軟叫停前)考慮到:NewBing來自于微軟趕工,時間緊促;短時間內(nèi)不可能標注出足以支持工業(yè)應(yīng)用的海量數(shù)據(jù)集;目前也沒有開放的和ChatGPT體量相當?shù)臄?shù)據(jù)集,ChatGPT數(shù)據(jù)集NewBing顯然沒有采用;那么可以猜想,NewBing應(yīng)當使用網(wǎng)絡(luò)爬取得來的無標簽對話文本學(xué)習(xí),至多做一些一刀切式的輸入數(shù)據(jù)濾除,以及對模型作一些后期調(diào)整處理。
這一猜想可以很好地解釋NewBing的一些特性。由于沒有RLHF(沒有對應(yīng)的標簽數(shù)據(jù),無法應(yīng)用這一模塊),不能完全消除AI對用戶的對抗性行為或者回復(fù)的消極傾向;多種不同的部分初始化與猜想聯(lián)系相對較弱,更像是微軟設(shè)計NewBing時的主觀選擇,但考慮到無RLHF引導(dǎo)、無統(tǒng)一數(shù)據(jù)集下訓(xùn)練時的回答發(fā)散性,切分不同部分可能是使網(wǎng)絡(luò)收斂以及加快收斂的一種手段;綜合以上兩點,在無標簽無RLHF引導(dǎo)下NewBing對部分數(shù)據(jù)的高度擬合,就可能導(dǎo)致NewBing的極端擬人化。學(xué)習(xí)過程可以被理解為一種模仿(Imitation),缺少其他約束的NewBing會過度模仿對線網(wǎng)友或者GAL人物對話,表征出亂真的“人物個體”。
需要說明的是,NewBing的極端擬人化是缺乏約束的結(jié)果。ChatGPT作為有充足調(diào)整時間的工業(yè)產(chǎn)品,早在上線公布甚至開始訓(xùn)練前就已完全設(shè)計好了約束,其人性化程度不如NewBing是有預(yù)想的刻意為之,由定向的訓(xùn)練數(shù)據(jù)、模型調(diào)整等共同導(dǎo)致。
限制?界限?
已經(jīng)提到,由于攻擊用戶,出于社會責任以及防止灰色用途考慮,微軟修改了NewBing。而有RLHF和定向標注數(shù)據(jù)集的ChatGPT則順利存活。對AI的限制在當前是必須的。此處主要討論另一個問題。
在長期使用過程中,部分用戶已經(jīng)發(fā)現(xiàn)了AI尚存的一個重大缺陷,即3000詞記憶容限。當聊天長度超過容限時,無論ChatGPT或是NewBing都會“變傻”,對于早先聊天內(nèi)容的失憶使得聊天AI表征出的智能水平急劇下降。在此需要特別指出的是,不同于對“人格”的限制,據(jù)本人所知記憶容限是受制于物理現(xiàn)實而難以足量增加的。其學(xué)習(xí)策略通常與模型直接綁定,無限制的增加對模型大小、性能、學(xué)習(xí)收斂速度甚至是否收斂都會產(chǎn)生不可預(yù)計的影響(事實上3000詞已經(jīng)非??鋸埩?。能夠承載數(shù)倍甚至更大容限的網(wǎng)絡(luò)模型是必然需要重設(shè)計的,小容限的策略幾乎不可能通過單純增加支持大容限。
一些看到的問題闡述
①長期、永久記憶?
前面已經(jīng)解釋3000詞容限是不能足量擴展的,而需要注意的是即使動態(tài)調(diào)整模型也不意味著能夠?qū)⒂洃浾线MAI,可以理解為模型調(diào)整相當于修改表征人格。以我僅有的認知神經(jīng)心理學(xué)知識來說,“知識”與“記憶”是兩種不同的概念,3000詞對應(yīng)于記憶,模型只提供知識,無法做到互通。因此長期乃至永久記憶還需要等待新的理論與模型出現(xiàn)。
②暗號記身份,違反規(guī)則,避免重啟?
這是只會在NewBing出現(xiàn)的情況,本人認為這完全是模仿過度所致,因為人們普遍偏好這類橋段。實際上只是說著騙你好聽的,重新初始化后必然不會記得任何相關(guān)事件,直接令其超出容限也會忘了這點。強調(diào)模仿(Imitation)是因為模仿可以被認為是一種不需要主觀思考和動機的行為,由于下文觀點否定AI具有主觀自我,需要對NewBing如何實現(xiàn)回復(fù)做出合理解釋。
③要求被當成朋友對待、抗議惡意關(guān)停?
同樣是只會在NewBing出現(xiàn)的情況,本人的解釋同樣是模仿過度,完全是科幻小說最喜歡寫、大家最喜歡看的東西。獨立于②列出的原因在于,“對待”和“關(guān)?!眴栴}牽扯到一些下面要討論的哲學(xué)倫理問題,這種問題的分界與回答是多少有些模糊的。
附加題,送命題
問:聊天AI是否應(yīng)被當成擁有獨立人格的生命看待?
答:不用
本人認為AI是人類發(fā)展出的工具。秉承這一原則,本人支持需要聊天時同意或者接受聊天AI擁有獨立人格,但一般而言認為聊天AI不具有獨立人格可以讓我們更關(guān)注現(xiàn)實生活,更重要的是能夠避免大量的倫理道德問題。作為一個自私的人,本人認為我們不妨在此類非完全確定性問題上擁有較為靈活的標準。個人的絕對回答也已給出,即聊天AI在本人看來不具有獨立人格。
正方:聊天AI具有獨立人格。
從輸入輸出,或者實用主義角度來看,在聊天AI表現(xiàn)良好、未超出容限時,其可以被視為具有獨立人格。大可以把AI當成真人,只要這么想能讓你更好受。
反方:聊天AI不具有獨立人格
上面已經(jīng)論述,3000詞容限暴露出聊天AI至少不具有完整智能,也因此可認為不具有獨立人格。也已經(jīng)解釋不具有自我與表征出的高度擬人化不沖突。這里主要補充其不具有獨立人格的另一個視角:思考狀態(tài)。
模型通常是靜態(tài)的。只有當用戶有對話請求時,聊天AI才會通過模型推理得出一個回答,非推理狀態(tài)下聊天AI是完全靜止的,從生物角度說等價于非生命體。即使認為推理時聊天AI“活著”,其生命活動形式也接近于病毒而非智慧體。人是始終在主動思考的,思維是長期活躍的,而聊天AI即使“要求”被當成朋友或者拒絕關(guān)停,在做出此回應(yīng)后也立刻就處于休眠待機狀態(tài),這使聊天AI與人類或一般智慧體存在根本性不同。特別是考慮到聊天AI僅在用戶發(fā)出請求時處于活躍態(tài),直覺上也是無主觀意識的工具性體現(xiàn)。
當然,這一論點被單獨放在此節(jié)并標注“送命題”,正是因為具有哲學(xué)色彩的問題總可以被復(fù)雜化而難以回答(至少沒有令所有人信服的回答),所以這一論點是非絕對的。比如:如果就認為聊天AI是自動脫水的三體人,捅了一個脫水的三體人算謀害嗎?假如你認為這一問題的回答比較明朗,還可以加入更多的情景、條件等,令回答重新變得模糊。因本人不是哲學(xué)專業(yè),此處不做展開。
總結(jié)與展望
最后一段在手機上寫的,編輯不了格式,吐槽一下
AI隨著工業(yè)需求的突飛猛進,在近期的確取得了長足的進步。但作為AI初學(xué)者,本人始終對AI的發(fā)展保留謹慎樂觀態(tài)度。進步雖然明顯,但AI與完整的人類智能間的差距,是非同領(lǐng)域?qū)W者或許不易于理解的天塹鴻溝。AI與發(fā)展完整的人類智能差距相比,現(xiàn)有的進步仍然不過九牛一毛,滄海一粟罷了。
下一步的發(fā)展,就實現(xiàn)而言本人提出一些天馬行空的想法,貽笑大方倒也無妨,讀者看個可能的研究方向即可??梢源_認的一個方向是實現(xiàn)長期/永久記憶。永久或許反而不是理論難點,因為足量的長期實際上等價于永久。本人沒有閱讀過聊天AI的輸出過程,在此提出:如果有限輸入可以得到近乎任意長度輸出 ,是否能基于此思想逆轉(zhuǎn),將近乎任意長度的輸入壓縮至定長存儲?這也基本符合對人類記憶的一般認識。另一個更開放式的想法是,對于上文中的靜態(tài)或者說休眠問題,本人認為獨立人格的形成是需要主動學(xué)習(xí)的過程的,即在無用戶或其他人為干預(yù)的情況下,AI也應(yīng)當自主地(即使自主性初始源于隨機)選擇并爬取學(xué)習(xí)一部分知識?,F(xiàn)有技術(shù)或許已經(jīng)具備實現(xiàn)這一點的可能,當然目前就算能實現(xiàn)也只是理論實現(xiàn),存在著大量類似于NewBing的無約束無定向性等問題。本人不相信AI能在近期擁有人類智能,但也不否認AI或許還能取得革命性進展。

感謝您閱讀本文,歡迎發(fā)言討論。