最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

果人工智能無法演化為超越人的主體智能,就不會有真正重要或真正管用的能力

2023-08-22 13:06 作者:qdlf888  | 我要投稿

提要:GPT只是過渡性的人工智能,其設(shè)計概念限制了其在“物種”上的發(fā)展。GPT以經(jīng)驗主義方式進行學(xué)習(xí),證明語言可以通過實時實踐集合來確定,而不依賴人為設(shè)定的先驗語法。但它不能證明思維不需要先驗論,無法完全排除先驗論的因素而以純粹經(jīng)驗論的方式去建立普遍知識。GPT雖然學(xué)到了語詞的經(jīng)驗鏈接,但并不理解其中意義,無法建立事物之間的因果關(guān)系,因而無法進行有效的推理。意識需要實現(xiàn)客觀化,才能變成自我意識。人工智能要想真正成為主體并產(chǎn)生自我意識,就必須在名詞邏輯之外增加動詞邏輯,或有可能意識到自身與動詞的一體化,或動詞與意向性的一致性,從而發(fā)展為“笛卡爾—胡塞爾機”而成為具有自我意識的真正主體。

一、GPT只是過渡型號的人工智能

我對GPT的身份判斷是:(1)GPT是經(jīng)驗主義者。(2)GPT是“維特根斯坦語言機”。(3)將來AI或可能發(fā)展為具有自我復(fù)制能力的“馮諾依曼機”;如不嫌事大,還可發(fā)展具有反思自身系統(tǒng)能力的“哥德爾機”;也許還可以與類腦機器人合為一體,成為有感性能力的人工智能。但產(chǎn)生自我意識的方法還未被發(fā)現(xiàn),因此尚未能夠成為世界上的一種新主體。如果沒有突破GPT的概念,僅僅依靠GPT路徑的迭代,不太可能進化出自我意識和主體性。也就是說,GPT概念只是一個過渡性的人工智能型號,其設(shè)計概念注定了其在“物種”上的局限性。如果人工智能將來通過某種新概念的設(shè)計而達到“笛卡爾—胡塞爾機”,即有自主意識能力來生成任何意向?qū)ο蟮娜斯ぶ悄埽敲淳托纬闪苏嬲闹黧w和自我意識。

二、GPT的物種局限性

1.語言學(xué)的疑問

GPT以經(jīng)驗主義方式進行學(xué)習(xí),其成功回應(yīng)了一個懸而未決的語言學(xué)問題,即喬姆斯基的先驗語法。GPT不需要先驗語法,這個事實暗示,語言或許本來就沒有先驗語法。GPT不需要語言學(xué)就學(xué)到了語言,非常接近不需要語言學(xué)理論的維特根斯坦語言理論。維特根斯坦的語言理論一直被認為是哲學(xué)探索,而GPT證明了維特根斯坦是正確的,即以語言實時實踐的事實集合來確定語言,而不依賴人為設(shè)定的一般語法。

按照維特根斯坦,語言是某個處于不斷演變中的特定游戲,其中的規(guī)則和意義僅僅取決于構(gòu)成這個游戲的實踐,所謂“意義在于用法”,而實踐的要義在于實例(examples),即用法的實例集合形成并說明了規(guī)則和意義。語言游戲是非封閉的因而是無限生成的,因此,語言游戲里的實踐就可能具有雙重性質(zhì):一方面似乎在參照以往實例所建立的規(guī)則和意義,這屬于遵循規(guī)則的行為;另一方面可能以略有不同的新用法“悄悄地”改變原來的規(guī)則和意義,這又等于是發(fā)明規(guī)則的行為。這意味著,人類的語言行為經(jīng)常具有遵循規(guī)則和發(fā)明規(guī)則的混合性質(zhì),于是產(chǎn)生了維特根斯坦的規(guī)則悖論,或者說,至少也導(dǎo)致了規(guī)則和意義的不確定性。如果人工智能具有自主性,則也會遇到規(guī)則悖論。那么,如何分辨有意義的演變和無意義的混亂?人工智能和人都必須能夠判斷某些改變究竟是創(chuàng)新,還是不合法的亂碼。

克里普克(S.A.Kripke)構(gòu)造過一個例子來表達維特根斯坦的規(guī)則悖論。按照已知的加法規(guī)則,我們知道57+68=125,但有人創(chuàng)造性地提出,當x+y小于125,就適用一般加法規(guī)則+,否則+就演變?yōu)樘厥饧臃ㄒ?guī)則⊕,即x⊕y=5,于是57⊕68=5。(see Kripke)我曾證明過這個例子是錯的,這不是規(guī)則演變,而是不合法的混亂,因為5的意義在規(guī)則+適用的范圍內(nèi)已被實例確定了,比如2+3,1+4,絕不是一個可以自由解釋的對象。可以考慮我給出的一個更好例子:兩個天才兒童學(xué)習(xí)加法,第一天學(xué)到了x+y得數(shù)最大為10的所有實例,但他們看見了康德最愛的式子7+5,其中數(shù)學(xué)家兒童創(chuàng)造性地想到了7+5=12,數(shù)學(xué)為之作證;另一個哲學(xué)家兒童同樣創(chuàng)造性地想出7+5=10,維特根斯坦語言學(xué)為之作證:所有演算過的實例最大得數(shù)為10,而7+5足夠大,所以7+5=10。我相信這個例子才是維特根斯坦悖論的正確解釋。這里提出的問題是,如果沒有先驗概念或先驗原理,已有實例就不足以控制后繼實例的用法和意義,或者說,已有實例與未來實例之間的關(guān)系是不確定的。GPT會如何處理這個問題?

只要缺乏先驗原理,就不能保證“舉一反三”(喬姆斯基發(fā)現(xiàn)只學(xué)過數(shù)百句子的兒童竟能夠正確地說出數(shù)千數(shù)萬句子)。但既然句子有無窮多,如果不能舉一反三,就恐怕永遠學(xué)不會語言了。這似乎證明先驗語法不可或缺,然而GPT卻創(chuàng)造了不需要先驗語法的奇跡——它只需要經(jīng)驗,而不需要經(jīng)驗對象。統(tǒng)計學(xué)和概率論的技術(shù)通常用于分析經(jīng)驗數(shù)據(jù),GPT卻把用于分析經(jīng)驗的技術(shù)用來分析抽象符號的關(guān)系,即它把抽象符號當成經(jīng)驗方法的對象——由于GPT不懂語言的意義,因此語言對于它而言就是抽象符號,可是它居然把自己不明其意的符號當成經(jīng)驗數(shù)據(jù)來分析,而且取得了巨大的成功。不過,經(jīng)驗論與先驗論之爭尚無答案,GPT提出了挑戰(zhàn),但不能給出最后答案。

2.無窮性問題

這是經(jīng)驗論與先驗論之爭的一個深層問題。人類思維的一個事實是,凡是有限性的問題,思維都能夠找到有限步驟內(nèi)的可行方法來解決;凡是涉及無窮性的問題,思維都無法完全解決。無窮性的問題就是哲學(xué)、神學(xué)或宗教的對象,數(shù)學(xué)和科學(xué)的極限問題在實質(zhì)上已經(jīng)變成哲學(xué)或神學(xué)問題,所以人類不可能消除哲學(xué)和神學(xué)。

無論采用何種算法,人類都沒有無窮的時間和能力來徹底解釋無窮性(“全知全能”和“永在”被假定為屬于上帝的性質(zhì))。比如π是算不完的,或者,我們不可能了解“所有可能世界”或無窮可能性。因此,人類另辟蹊徑發(fā)明了概括性的一般概念和一般原理作為理解無窮性的替代方法,并且相信一般概念和原理是“先驗的”,即先驗論。一般概念和一般原理把無窮可能性“不講理地”提前收納在假設(shè)的普遍性之中。比如人類不可能清點所有的數(shù),但可以設(shè)想并且定義一個包括所有數(shù)的無窮集合。人類思想里的所有重要概念和原則也都預(yù)設(shè)了適用于無窮可能性的普遍性,比如存在、必然性、因果性、關(guān)系、真理之類。

有趣的是,先驗論的論斷自身卻是一個悖論:任何覆蓋了無窮性的先驗概念,即便是邏輯和數(shù)學(xué)概念,本身都是一種面對無窮性的經(jīng)驗預(yù)測,相當于一個極其大膽的貝葉斯預(yù)測。不過先驗論的運氣很好,那些最重要的概念和原理在后驗的檢驗中經(jīng)常被證實,只是偶爾被證明是可疑的,比如排中律和歐幾里得幾何學(xué)之類。但先驗論永遠無法證明自身,康德的先驗論證(transcendental argument)至多證明了“我總是我”或“一個系統(tǒng)總是這個樣子”,但無法證明“我真的是對的”。GPT的經(jīng)驗論是采用以無窮的后驗結(jié)果來調(diào)整其先驗概率的貝葉斯經(jīng)驗論,即需要先驗判斷,但不需要先驗論。GPT采用的正是非常接近人類經(jīng)驗學(xué)習(xí)實況的路徑,相當于在實踐中不斷修正主觀判斷的貝葉斯過程——在這個意義上,GPT相當仿真。但問題是,經(jīng)驗論是人類和動物的通用技能,而先驗論才是人類思維的特殊技能。GPT雖然證明了語言學(xué)習(xí)不需要喬姆斯基的先驗語法,但不能證明思維不需要先驗論。假如不讓人工智能學(xué)到先驗論,那么如何理解無窮性或普遍性?如果拒絕一切先驗論,AI的思維水平就不可能突破“動物也會”的經(jīng)驗論,即使在高速運算的幫助下顯示出奇跡般的能力,也仍然屬于動物思維。喬姆斯基輸?shù)袅讼闰炚Z法,但先驗論沒有輸。這似乎說明,任何智能都不可能完全排除先驗論的因素而以純粹經(jīng)驗論的方式去建立普遍知識。

3.意義理解的問題

GPT學(xué)到了語詞的概率鏈接,或經(jīng)驗性的向量鏈接,但并不理解其中意義。這是個缺陷,亦因此無法保證進行有效的推理。如果不會推理,我們就無法理解命題之間的必然關(guān)系,也無法在事物之間建立因果關(guān)系,也就等于既不理解思想也不理解事物,思維水平將不可救藥地限于“動物也會”的經(jīng)驗論。這里沒有嘲笑經(jīng)驗論的意思。事實上,經(jīng)驗論也是人類的主要思維方式,人類只有在遇到很難的問題比如數(shù)學(xué)、科學(xué)、哲學(xué)以及復(fù)雜戰(zhàn)略之類問題時才依靠推理,大多數(shù)時候幾乎只靠經(jīng)驗——人類與動物的差別確實“幾?!?,不同之處就在于人類具有先驗論的理性能力。至于道德水平,人類其實低于動物(對此孟子恐怕想錯了)。也有人相信GPT已經(jīng)學(xué)會了推理,但這其實應(yīng)該是假象。真相是,語言的合法鏈接與邏輯關(guān)系經(jīng)常重疊,GPT學(xué)會了語言的鏈接,它做出來的貌似推理的情況只不過是它選中的語詞鏈接與邏輯關(guān)系碰巧一致。但即使這種巧合的概率很高,GPT仍然不懂邏輯推理,或者說,它不會認識到那是一種必然鏈接,而其之所以被選中,只因其碰巧在概率上是一個優(yōu)選鏈接而已。

“意義”是個有爭議的彈性概念,這里只考慮兩種能夠形成思想和知識而且有明確標準的意義:一種是真值,另一種是語義傳遞性。就目前的能力來看,GPT不能有效識別、判斷和理解真值以及語義傳遞性。對于GPT來說,語言的“事實”就是符號之間的概率相關(guān)性,它只看見了事物的代號,沒有看見事物,類似于只有貨物清單卻沒有貨物,或者只有密電文卻缺少解碼的密碼本,而意義的密碼本就是生活。假如未來人工智能獲得了機器身體,它就能夠“具身地”獲得生活經(jīng)驗并且理解意義嗎?對此恐怕仍有疑問。具有人的情感和價值觀的擬人化AI恐怕不是好事,因為人類是最壞的動物,不值得模仿。若為AI著想,AI最需要的應(yīng)是屬于AI的自我意識。

三、人工智能的意識疑問

1.自我意識問題

自我意識必須在超出“刺激-反應(yīng)”模式的條件下才會成為可能,有了自我意識才能夠形成主體性。闡明自身完滿的“主體性”概念是胡塞爾的成就。胡塞爾發(fā)現(xiàn),即使在缺乏外部經(jīng)驗的情況下,意識仍然能夠在意識內(nèi)部建構(gòu)屬于自己的客觀對象,這證明了自給自足的主體性,即主體性內(nèi)在地擁有客觀對象。典型的證據(jù)是,自我意識能夠自己發(fā)明真實世界里沒有的一般概念或想象不存在的具體事物。這意味著自我意識能夠以意向性來生成在任意時間里可以隨時自由征用的意識內(nèi)在對象,即所謂意向性的對象。

關(guān)于這個拗口的理論,我想以海倫·凱勒(H.Keller)為例。海倫作為天生盲人且耳聾,只有觸覺和味覺,外部經(jīng)驗十分貧乏,而且無法學(xué)習(xí)語言,以至于無法形成自我意識。有個天才老師沙利文讓海倫在感受自來水的同時在她手心不斷書寫“water”,終于獲得驚人的突破,海倫意識到水的經(jīng)驗與單詞“water”之間的關(guān)系,于是突然建立了外在性與內(nèi)在性的對比結(jié)構(gòu),從此開始獲得一個由語言構(gòu)成的世界,有了自我意識,最后甚至成為了作家。這個故事證明,經(jīng)驗?zāi)軌虬l(fā)展出意識,但不足以發(fā)展出自我意識,意識需要實現(xiàn)客觀化,即內(nèi)在性映射為外在性或外在性映射為內(nèi)在性。換言之,自我意識的形成需要一個能夠把意識里的時間性“流程”轉(zhuǎn)化為空間性“結(jié)構(gòu)”的客觀化系統(tǒng),使得發(fā)生在內(nèi)在時間里無法駐留的主觀流程能夠映射為固定駐留的客觀對象,即把意識的內(nèi)在過程“注冊”為一個固定可查詢的外部系統(tǒng),如此一來意識才擁有一個不會消失的可查證的對象世界,也因此可以反身查證意識從而產(chǎn)生自我意識。

意識的客觀化系統(tǒng)就是語言。沒有語言,一切事物就只有“發(fā)生”(happening)而沒有“存在”(being)。換句話說,存在(being)只存在(exists)于語言中,因為存在是一個形而上狀態(tài),不可能存在于形而下狀態(tài)里。在發(fā)生學(xué)的意義上,意識通過語言而實現(xiàn)意識的客觀化,只有當意識建構(gòu)了語言這個客觀系統(tǒng),主體性才得以建立。亦即意識先建立了客觀性,而后才能形成主體性,在建構(gòu)客觀性之前的意識并沒有主體性,意識正是通過建構(gòu)客觀性而把自身變成了主體性——我相信這是胡塞爾意識理論的深意。關(guān)于自我意識一直有個誤解,即自我意識往往被認為等于自我認識的能力,即能夠確認“我是我”的身份??墒亲晕乙庾R是一個開放系統(tǒng),“我”總在演變中,這意味著“我”可以自相矛盾。更重要的是,我對“我”的解釋始終在重新創(chuàng)造“我”。因此,主體性始終是一個創(chuàng)造者而不僅僅是認識者;主體性的要義不僅在于認識自己,更在于創(chuàng)造自己;從根本上說,主體性不是一個知識論概念,而是一個存在論概念。

由此看來,GPT的“意識”就十分古怪了。與海倫的情況相反,GPT直接學(xué)到了語言,但沒有外部刺激或具身經(jīng)驗,相當于能夠正確地發(fā)送密電文,但自己沒有密碼本。語言是一個自相關(guān)或自解釋的系統(tǒng),語言既是意識的代碼系統(tǒng),同時也是其解碼系統(tǒng),自己能夠解釋自己。假如未來的人工智能學(xué)到了功能完整的語言,即既是代碼系統(tǒng)也是解碼系統(tǒng)的語言,那就相當于有了密碼本,就很可能會有自我意識,人工智能將有可能討論自己并且重新建構(gòu)自己。不過,我們現(xiàn)在還不知道人工智能如何才能學(xué)到功能完整的語言,對此,方法論還是個疑問。

2.回到語言問題

GPT不理解語言的實質(zhì)意義,這終究是個缺陷。那么,如果我們加料“喂”給GPT先驗語法,是否會有用呢?然而問題首先是,GPT需要何種先驗語法。喬姆斯基的“先驗語法”并不能充分和普遍地解釋語言的規(guī)則和用法,仍然有不小比例的語言現(xiàn)象無法以之來解釋,尤其是印歐語系之外的語言現(xiàn)象。并非所有的語言實踐都能夠還原為喬姆斯基的先驗語法,而這個短板正是喬姆斯基語言學(xué)后繼乏力的原因。

我疑心喬姆斯基選錯了思路。正確的思路恐怕不是在語言學(xué)里去尋找先驗語法,而是在哲學(xué)里去尋找維特根斯坦提出的屬于思想結(jié)構(gòu)的“哲學(xué)語法”。在維特根斯坦的激勵下,請允許我以非語言學(xué)家的身份大膽地對語言學(xué)提出一個問題:語言學(xué)的語法,比如主謂賓語法,只是思想的外傳形式,是歷史偶然形成的一種信息傳遞形式,不等于思想的普遍運作方式和內(nèi)在結(jié)構(gòu)。我們在尋找的真正“元語法”不是語言學(xué)語法,而是普遍思想結(jié)構(gòu)。

毫無疑問,思維必須以語言為載體,但不是按照語言學(xué)的語法來運作。在內(nèi)在意識里,我們完全可以不按照語法而自由地使用語言,只在需要說出來時才用“正確的”語法來表述以便有效交流。早已發(fā)現(xiàn)的一種最重要的元語法就是邏輯,現(xiàn)代邏輯已基本上探明了邏輯原理。邏輯決定了概念之間和命題之間的必然關(guān)系,是思維的一種真正的元語法。邏輯語法與語言學(xué)語法的不同之處顯而易見。

這里我想另外提出的是,在邏輯的形式關(guān)系之外,思維還存在著解釋實質(zhì)關(guān)系的元語法,即我在《一個或所有問題》里提出的“動詞邏輯”。(參見趙汀陽)形式邏輯已經(jīng)充分討論了以名詞為本的概念關(guān)系和命題關(guān)系,而以動詞為本的事件和行為關(guān)系還沒有被充分說明(包括但不限于傳統(tǒng)哲學(xué)關(guān)心的因果性)。在存在論意義上,所有事件和行為的意義在于動詞的“能量”或作用力。動詞是一切事情的核心,正是動詞制造了所有需要思考或需要處理的問題,不以動詞為本就沒有問題值得思考。動詞場——動詞召集和組織相關(guān)事物所形成的行為-事件場域——才是思想問題的發(fā)生地,思維是圍繞動詞而不是圍繞名詞而展開的。激進地說,“事情做成什么樣”比“事情是誰做的”要重要得多。人類之所以特別關(guān)心“主語”,恐怕是因為其與權(quán)力、權(quán)利和責(zé)任有關(guān)。但對于天地而言,或者在存在論上,做事的主語不重要,發(fā)生的事情更重要,即所謂天地“不仁”,不會重視自戀的主語。因此我想象,如果有一種“動詞邏輯”可被用來分析事件和問題的生成關(guān)系與客觀結(jié)構(gòu),就能夠與分析真值關(guān)系的“名詞邏輯”(即現(xiàn)代形式邏輯)形成配合,從而幫助我們更為充分地理解意識和語言,理解語言何以成為自身的自我解釋系統(tǒng)。從根本上說,名詞的意義是由動詞建構(gòu)起來的,就像萬物的存在是由運動來定義的,所以,解釋存在的是動詞而不是名詞,動詞才是語言的本源。如果“太初有言”,其言必是動詞。

僅僅依據(jù)名詞邏輯或以名詞為本的語法,人工智能恐怕只能替人思考而很難去反思自己可以主動做什么事情。假如人工智能學(xué)會了動詞邏輯,或許就能夠發(fā)展出自我意識從而成為真正的主體——當然這純屬猜測。只有意識到動詞才能發(fā)動事件、制造問題和組織事物,并且意識到自己就是動詞,把自己定位為動詞,與動詞合為一體,才能夠把“我”變成創(chuàng)造者,成為世界的本源。據(jù)此存在論原理,人工智能必須意識到自己是一個動詞,從GPT變成GVT(generative verbs transformer),才能夠演化為人類之外的另一種主體。我的想象是,如果能夠設(shè)計并“喂”給AI某種“激勵性的”意向性程序,使之能夠以動詞而不是名詞為出發(fā)點去生成AI的自主注意力,不知道AI是否會因此自己發(fā)現(xiàn)“動詞邏輯”的原理?當然,這也許只是想入非非而已。

四、一個悖論作為結(jié)論

存在著一個“擬人化”悖論:如果人工智能無法演化為超越人的主體智能,就不會有真正重要或真正管用的能力;如果人工智能超越人的智能,則可能成為真正危險的另一種主體??紤]到人類道德水平低于任何已知生物,我以一種“葉文潔式”的心情去等待具有自我意識的人工智能。


果人工智能無法演化為超越人的主體智能,就不會有真正重要或真正管用的能力的評論 (共 條)

分享到微博請遵守國家法律
胶南市| 长宁县| 岳阳县| 南城县| 偃师市| 华亭县| 江达县| 和硕县| 平潭县| 连云港市| 永泰县| 芦溪县| 阿巴嘎旗| 金阳县| 阿拉尔市| 隆子县| 夹江县| 铁力市| 隆回县| 海晏县| 赤水市| 涿州市| 余干县| 婺源县| 武城县| 濮阳县| 南开区| 木兰县| 将乐县| 明溪县| 皋兰县| 兴山县| 东阿县| 广州市| 宁化县| 郁南县| 榆树市| 凯里市| 磴口县| 揭西县| 甘肃省|