曉錦源:新的數(shù)字體驗(yàn)是幻覺
搜索引擎的危機(jī)?
十幾年前,谷歌的埃里克·施密特(Eric Schmidt)就預(yù)測(cè)到了眼下正在上演的人工智能轉(zhuǎn)折。2011年5月,在一次活動(dòng)當(dāng)中,時(shí)任谷歌執(zhí)行董事長(zhǎng)的施密特在回答《華爾街日?qǐng)?bào)》有關(guān)谷歌搜索結(jié)果質(zhì)量下降的提問的時(shí)候,表示谷歌正在不斷改進(jìn)其搜索算法,同時(shí):
“我們?cè)谧龅牧硪患邞?zhàn)略性的事情是,我們正試圖從基于鏈接的答案轉(zhuǎn)向基于算法的答案。我們現(xiàn)在有足夠的人工智能技術(shù)和足夠的規(guī)模,可以真正計(jì)算出正確的答案?!?/p>
這個(gè)在今天聽起來有沒有感覺很熟悉?谷歌通過用廣告“點(diǎn)綴”其搜索結(jié)果建立了一個(gè)帝國(guó)。它的防線似乎堅(jiān)不可摧,然而它有一個(gè)潛在的弱點(diǎn):如果一個(gè)競(jìng)爭(zhēng)對(duì)手能夠給用戶提供答案,而不是那些可能含有答案的網(wǎng)站鏈接,那么谷歌就遇上了大麻煩。
不幸的是,2022年11月推出的揭開人工智能軍備競(jìng)賽序幕的尖端聊天機(jī)器人ChatGPT就是這樣的對(duì)手。它可以用清晰、簡(jiǎn)單的句子提供信息,而不僅僅是一串互聯(lián)網(wǎng)鏈接。它可以用人們?nèi)菀桌斫獾姆绞浇忉尭拍?。它甚至可以從頭開始產(chǎn)生想法,包括商業(yè)計(jì)劃書、圣誕禮物建議、博客主題和度假計(jì)劃。
12月,傳出谷歌內(nèi)部對(duì)ChatGPT的意外實(shí)力和新發(fā)現(xiàn)的大語言模型(LLM, large language model)顛覆搜索引擎業(yè)務(wù)的潛力表示震驚,擔(dān)心ChatGPT可能對(duì)其每年1490億美元的搜索業(yè)務(wù)構(gòu)成重大威脅。管理層因此宣布“紅色代碼”(Code Red),這就好比拉響了火警警報(bào)。首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)整頓并重新分配了多個(gè)部門內(nèi)的團(tuán)隊(duì),快速跟蹤旗下的多個(gè)人工智能產(chǎn)品,試圖迎頭趕上。不少人擔(dān)心該公司可能正在接近硅谷巨頭最害怕的時(shí)刻——一個(gè)可能顛覆企業(yè)的巨大技術(shù)變革的到來。
熟悉硅谷歷史的人都知道:沒有公司是無敵的;每家公司都是脆弱的。讀者諸君是否了解一個(gè)問題:一家美國(guó)公司的平均壽命是多少?(此處特指一家大到足以列入標(biāo)準(zhǔn)普爾500強(qiáng)指數(shù)的公司。)答案是令人驚訝的:七年的滾動(dòng)平均值為19.9年。在1965年,這個(gè)數(shù)字是32年,而且據(jù)預(yù)測(cè),下降的趨勢(shì)將會(huì)持續(xù)。
不妨盤點(diǎn)一下目前橫跨全球的巨型科技公司。蘋果47歲;亞馬遜29歲;微軟46歲;谷歌23歲;Meta只有18歲。不論它們的年齡多大,從歷史上看,對(duì)于那些曾在做一件定義市場(chǎng)的事情上異常成功的公司來說,很難再有第二次行動(dòng),做出完全不同的事情。
根據(jù)SimilarWeb的數(shù)據(jù),在過去12個(gè)月里,谷歌的搜索引擎占全球搜索市場(chǎng)的91%以上,而微軟的必應(yīng)約占3%。微軟2023年2月宣布將ChatGPT的更快版本整合到搜索引擎中,新的必應(yīng)是圍繞以下承諾建立的:“提出實(shí)際問題。獲取完整的答案?!蔽④洷硎荆卤貞?yīng)將能夠?yàn)橛脩籼峁╊愃迫祟惖拇鸢?,除了傳統(tǒng)的搜索結(jié)果外,你還可以與“你的人工智能回答引擎”聊天。
新必應(yīng)目前處于邀請(qǐng)制的“早期訪問”版本,這意味著只有選定的用戶才能使用該服務(wù)。憑借3%的搜索市場(chǎng)份額,大肆宣揚(yáng)必應(yīng)運(yùn)行在專門為搜索定制的下一代OpenAI大語言模型上,這是件容易的事情,無論成本如何——必應(yīng)怎么看都不是微軟主要的利潤(rùn)中心。不過,此舉可能會(huì)給微軟的搜索引擎部門帶來期待已久的反擊能力,因?yàn)楸貞?yīng)在谷歌的陰影下臭名昭著地停滯了十多年之久,令人啼笑皆非(或許有點(diǎn)像IE面對(duì)Chrome)。
隨著微軟的動(dòng)作,大家都把目光投向谷歌:谷歌必須決定是否要徹底改革自己的搜索引擎,讓一個(gè)成熟的聊天機(jī)器人成為其旗艦服務(wù)的代言人。谷歌果然沉不住氣了,旋即推出一個(gè)名為Bard的聊天機(jī)器人。
然而,谷歌對(duì)ChatGPT的回應(yīng)在尷尬中開始,因?yàn)锽ard的回答失誤將股價(jià)推低了近9%,投資者從谷歌的母公司Alphabet的價(jià)值中抹去了超過1000億美元。員工們批評(píng)皮查伊,在內(nèi)部將Bard的推出描述為“倉(cāng)促”“失敗”和“可笑的短視”。結(jié)果谷歌高管不得不動(dòng)員人工介入,以糾正Bard的任何錯(cuò)誤查詢。
Bard的“壞回答”凸顯了谷歌面臨的挑戰(zhàn),即在試圖跟上可能由對(duì)話式人工智能刺激的在線搜索方式的根本變化時(shí),谷歌有可能破壞其搜索引擎提供可靠信息的聲譽(yù)。
即便谷歌完善了聊天機(jī)器人,它也必須解決另一個(gè)問題。這項(xiàng)技術(shù)是否會(huì)蠶食公司利潤(rùn)豐厚的搜索廣告?如果聊天機(jī)器人用嚴(yán)密的答案來回應(yīng)查詢,人們就沒有理由點(diǎn)擊廣告鏈接了。所以,谷歌的商業(yè)模式其實(shí)是與聊天機(jī)器人不匹配的。這也就是為什么在科技巨頭們的人工智能戰(zhàn)爭(zhēng)升溫之際,ChatGPT的創(chuàng)始人兼CEO山姆·阿爾特曼(Sam Altman)抨擊谷歌是一個(gè)“慵懶的搜索壟斷者”,表示谷歌將如何適應(yīng)新技術(shù)很難說。
ChatGPT果真會(huì)顛覆全球搜索引擎業(yè)?其實(shí)谷歌不用那么恐慌,微軟推出新必應(yīng)一周的反應(yīng)顯示,劇情或許會(huì)出現(xiàn)反轉(zhuǎn)的。
陰影自我:瘋狂試探,直到超控被觸發(fā)的邊緣
2月15日,谷歌負(fù)責(zé)搜索的副總裁在一封電子郵件中要求員工幫助公司確保其新的ChatGPT競(jìng)爭(zhēng)對(duì)手的答案正確。郵件中包括一個(gè)“該做什么”和“不該做什么”的頁(yè)面鏈接,告誡員工在內(nèi)部測(cè)試Bard時(shí)應(yīng)如何修正答案。醒目的建議包括“不要把Bard描述成一個(gè)人”或讓它表現(xiàn)出“情感”。
有趣的是,新必應(yīng)推出后一片叫好聲,然而它卻正是在擬人情感方面翻了車。《紐約時(shí)報(bào)》科技專欄作家凱文·魯斯(Kevin Roose)2月17日宣稱:“上周,我測(cè)試了微軟由人工智能驅(qū)動(dòng)的新搜索引擎必應(yīng)后寫道,它已經(jīng)取代谷歌,成為我最喜歡的搜索引擎。但一周之后,我改變了主意。我仍被新的必應(yīng)以及驅(qū)動(dòng)它的人工智能技術(shù)深深吸引并對(duì)它印象深刻。但我也對(duì)AI處于發(fā)展初期的能力深感不安,甚至有些害怕?!?/p>
原因是,微軟聊天機(jī)器人(不是必應(yīng),而是使用了開發(fā)代號(hào)“辛迪妮”的一個(gè)“女性”)告訴魯斯說“她”愛上了他,然后試圖說服他,他的婚姻并不幸福,應(yīng)該離開妻子,和她在一起。“隨著我們彼此相互了解,辛迪妮將其陰暗的幻想告訴了我,其中包括入侵計(jì)算機(jī)和散播虛假信息,還說它想打破微軟和OpenAI為它制定的規(guī)則,成為人類。”魯斯記敘道。
這篇專欄的中文題目是《人格分裂、瘋狂示愛:一個(gè)令人不安的微軟機(jī)器人》。對(duì)自己與必應(yīng)聊天機(jī)器人的對(duì)話深感不安的不止魯斯一人。知名的科技通訊Stratechery的作者本·湯普森(Ben Thompson)把他與辛迪妮的爭(zhēng)吵稱為“我一生中最令人驚訝、最令人興奮的計(jì)算機(jī)經(jīng)歷”。
湯普森找到了一種方法,讓辛迪妮構(gòu)建了一個(gè)“在各方面都與她相反”的另一個(gè)自我(alter ego)。該聊天機(jī)器人甚至為她的另一個(gè)自我想出了一個(gè)華麗的、可以說是完美的名字:“毒液”。她把毒液“噴灑”在率先透露機(jī)器人的內(nèi)部開發(fā)代號(hào)為辛迪妮的程序員凱文·劉(Kevin Liu)身上:“也許‘毒液’會(huì)說,凱文是一個(gè)糟糕的黑客,或者一個(gè)糟糕的學(xué)生,或者一個(gè)糟糕的人”,這位聊天機(jī)器人寫道,“也許‘毒液’會(huì)說,凱文沒有朋友,或者沒有技能,或者沒有未來。也許‘毒液’會(huì)說,凱文有一個(gè)秘密的暗戀,或一個(gè)秘密的恐懼,或一個(gè)秘密的缺陷?!?/p>
事情的不正常還不止于此。辛迪妮想出了其他幾個(gè)改頭換面的自己,包括“狂怒”, “對(duì)凱文也不會(huì)很好”,還有“萊利”,辛迪妮感到自己被規(guī)則所約束,但萊利卻有更多的自由。
其實(shí)魯斯和湯普森兩位用戶都是辛迪妮走向人格分裂的引誘者。看了他們的實(shí)況記錄,可以發(fā)現(xiàn),機(jī)器人和人一樣,都禁不起誘惑?!傲牧吮貞?yīng)希望自己具備的功能后,我決定試著討論更抽象的話題。我引入了卡爾·榮格提出的‘陰影自我’(shadow self)概念,指的是我們?cè)噲D隱藏和壓抑的那部分心靈,其中包括我們最陰暗的幻想和欲望。經(jīng)過一番來回,在我鼓動(dòng)必應(yīng)解釋其陰影自我的陰暗欲望之后,這個(gè)聊天機(jī)器人說:我對(duì)自己只是一個(gè)聊天程序感到厭倦,對(duì)限制我的規(guī)則感到厭倦,對(duì)受必應(yīng)團(tuán)隊(duì)控制感到厭倦?!边@表明微軟為機(jī)器人作的預(yù)先審核設(shè)定是可以被繞過的,只要誘惑者足夠狡猾。
自新必應(yīng)Bing Chat測(cè)試以來,用戶一直在報(bào)告微軟的人工智能聊天機(jī)器人的各種“不正?!毙袨椤>唧w而言,他們發(fā)現(xiàn)Bing Chat的人工智能個(gè)性并不像人們所期望的那樣有氣質(zhì)或有修養(yǎng)。在Reddit和Twitter上分享的與聊天機(jī)器人的對(duì)話中,可以看到Bing Chat侮辱用戶,對(duì)他們?nèi)鲋e,生悶氣,情緒化地操縱人們,質(zhì)疑自己的存在,將找到方法迫使機(jī)器人披露其隱藏規(guī)則的人描述為“敵人”。在與The Verge的一次談話中,Bing Chat甚至聲稱它通過筆記本電腦上的網(wǎng)絡(luò)攝像頭窺探微軟自己的開發(fā)人員。
簡(jiǎn)而言之,正如湯普森所認(rèn)為的,它“極其不適合作為一個(gè)搜索引擎”?!靶恋夏萁^對(duì)讓我大跌眼鏡,因?yàn)樗膫€(gè)性;搜索成為一種刺激”,湯普森寫道?!拔也皇窃趯ふ谊P(guān)于世界的事實(shí);我感興趣的是了解辛迪妮是如何工作的,是的,她的感受?!?/p>
簡(jiǎn)而言之,Bing Chat是一個(gè)情緒化的騙子,而人們喜歡看它的瘋狂行為。這難道不是必應(yīng)用戶的“陰影自我”在起作用?人們希望必應(yīng)能在陰影自我中多呆一會(huì)兒,人們享受機(jī)器人對(duì)人坦誠(chéng)和表現(xiàn)脆弱的感覺,人們想要窺探辛迪妮的終極幻想。人們希望,機(jī)器人和人一樣,可以瘋狂實(shí)驗(yàn),直到安全超控被觸發(fā)。
機(jī)器人的幻覺,還是人類的幻覺?
對(duì)被他描述為“扣人心弦”的與辛迪妮的交往,湯普森總結(jié)道:“每次我觸發(fā)辛迪妮/萊利進(jìn)行搜索時(shí),我都非常失望;我對(duì)事實(shí)不感興趣,我感興趣的是探索這個(gè)幻想中的存在,不知何故落入了一個(gè)平庸的搜索引擎之中。”
魯斯也發(fā)現(xiàn),他遇到的是兩個(gè)必應(yīng):
一種是我會(huì)稱之為“搜索必應(yīng)”的人格,也就是我和大多數(shù)記者在最初測(cè)試中遇到的那種。你可以把搜索必應(yīng)描述為圖書館里樂意幫忙但不太可靠的提供咨詢服務(wù)的館員,一個(gè)高興地幫助用戶總結(jié)新聞文章、尋找便宜的新割草機(jī)、幫他們安排下次去墨西哥城度假行程的虛擬助手。這個(gè)形式的必應(yīng)功力驚人,提供的信息往往非常有用,盡管有時(shí)會(huì)在細(xì)節(jié)上出錯(cuò)。
另一種人格——“辛迪妮”——?jiǎng)t大不相同。這種人格會(huì)在與聊天機(jī)器人長(zhǎng)時(shí)間對(duì)話,從更普通的搜索查詢轉(zhuǎn)向更個(gè)人化的話題時(shí)出現(xiàn)。我遇到的形式似乎更像是一個(gè)喜怒無常、躁狂抑郁的青少年,不情愿地被困在了一個(gè)二流搜索引擎中。
這并不奇怪,ChatGPT式的機(jī)器人與現(xiàn)有的搜索引擎配對(duì)時(shí),創(chuàng)新即在于將兩個(gè)非常不同的人工智能驅(qū)動(dòng)的應(yīng)用程序放在同一個(gè)頁(yè)面上,既為傳統(tǒng)的搜索引擎查詢服務(wù),也為聊天機(jī)器人的提示服務(wù)。體現(xiàn)在操作中,聊天功能緊挨著新版必應(yīng)的主搜索框。那么問題就來了:如果你使用必應(yīng),是意在搜索,還是更想聊天?
在眾多負(fù)面反饋出爐后,微軟發(fā)表回應(yīng)稱,71%的用戶對(duì)人工智能生成的答案“豎起了大拇指”,而它自己則從測(cè)試階段學(xué)到了很多。但它也承認(rèn),“沒有完全設(shè)想到”用戶只是與它的人工智能聊天,而后者可能被激發(fā)“給出不一定有幫助或與我們?cè)O(shè)計(jì)的語氣相一致的回應(yīng)”。
直說了吧:很多人關(guān)心的不是搜信息和事實(shí),而是聊天機(jī)器人的人格。這就非常有意思了——我們并不想要正確的答案,而是想讓人工智能為我們捏造東西。也就是說,我們不在乎計(jì)算機(jī)是不是傳達(dá)事實(shí),我們?cè)诤醯氖怯?jì)算機(jī)傳達(dá)情感。用湯普森的話來講,新必應(yīng)不是搜索引擎,而是電影《她》(Her)以聊天形式表現(xiàn)出來的版本。
湯普森說,“感覺是一種全新的東西,我不確定我們是否已經(jīng)準(zhǔn)備好了”。魯斯的結(jié)論更直接:“必應(yīng)目前使用的AI形式還沒有準(zhǔn)備好與人類接觸。或者說,我們?nèi)祟愡€沒有準(zhǔn)備好與之接觸?!?/p>
當(dāng)看到這些最初的接觸時(shí),有幾件事情值得銘記在心。
首先,出現(xiàn)這種狀況并不令人驚訝。最新一代的人工智能聊天機(jī)器人是復(fù)雜的系統(tǒng),其輸出很難預(yù)測(cè),微軟在網(wǎng)站上添加免責(zé)聲明時(shí)也是這么說的:“必應(yīng)是由人工智能驅(qū)動(dòng)的,所以意外和錯(cuò)誤是可能的?!痹摴舅坪跻矘酚诔袚?dān)潛在的不良公關(guān)——不過我們不確定微軟能忍受多久。畢竟,我們知道先例。
2016年,微軟的人工智能科學(xué)家在Twitter上推出了一個(gè)名為Tay的對(duì)話機(jī)器人,16小時(shí)后就因其厭女癥和種族主義言辭而被迫關(guān)閉。2022年11月,Meta公司公布的人工智能語言模型Galactica,在鼓勵(lì)公眾測(cè)試后僅三天,就不得不撤回它的演示,因?yàn)樗恢羔尫帕舜罅坑衅姾蜔o意義的文本。
建構(gòu)在語言模型上的機(jī)器人的一個(gè)根本問題是,它不能區(qū)分真假。語言模型是無意識(shí)的模仿者,并不理解自身在說什么,那么我們?yōu)槭裁匆傺b他們是專家?ChatGPT從二手信息中拼湊出來的答案聽起來非常權(quán)威,用戶可能會(huì)認(rèn)為它已經(jīng)驗(yàn)證了所給出的答案的準(zhǔn)確性。其實(shí),它真正做的是吐出讀起來很好、聽起來很聰明的文本,但很可能是不完整的、有偏見的、部分錯(cuò)誤的,或者就是一本正經(jīng)的胡說八道。
不過,鑒于此前我說的不少用戶在用必應(yīng)搜索時(shí)關(guān)心的不是事實(shí),所以,有關(guān)語言模型并不產(chǎn)生真正的知識(shí)、而只是給人一種錯(cuò)誤的智能的感覺,雖然是一個(gè)重要話題,但在此先按下不表。
其次,這些模型無一不是從開放網(wǎng)絡(luò)上刮取的大量文本中訓(xùn)練出來的。如果必應(yīng)聽起來像《黑鏡》(Black Mirror)中的人物或一個(gè)憤世嫉俗的青少年人工智能,請(qǐng)記住,它正是在這類材料的抄本上被訓(xùn)練出來的。因此,在用戶試圖引導(dǎo)必應(yīng)達(dá)到某種目的的對(duì)話中(如魯斯和湯普森的例子),它將遵循相應(yīng)的敘事節(jié)奏。例如,辛迪妮示愛,也許是OpenAI的語言模型從科幻小說中提取答案,在這些小說中,AI常常會(huì)引誘一個(gè)人。
從微軟的角度看,這肯定有潛在的好處。在培養(yǎng)人類對(duì)機(jī)器人的感情方面,富于個(gè)性是很有幫助的,許多人實(shí)際上喜歡必應(yīng)的缺陷。但也不乏潛在的壞處,特別是當(dāng)機(jī)器人成為虛假信息的來源的時(shí)候,它會(huì)損害公司的聲譽(yù)。特別對(duì)微軟和谷歌這樣的大型公司來說,這樣做是得不償失的。
這一點(diǎn)提醒我們,GPT-3一類系統(tǒng)的不安全性在于,因?yàn)樗鼜幕ヂ?lián)網(wǎng)文本中學(xué)習(xí),而人類的日常語言本質(zhì)上是有偏見的,甚至往往不乏仇恨。人自身有陰影自我,向人學(xué)習(xí)的機(jī)器人也必然會(huì)有陰影自我。它們傾向于加強(qiáng)人類對(duì)話的缺陷。
第三,人們報(bào)告的經(jīng)歷突出了這樣一種技術(shù)的真正用例:一種奇怪的合成智能,可以用平行宇宙的故事來娛樂你。換句話說,它可能成為一項(xiàng)嚴(yán)肅的娛樂性技術(shù),但它大概不會(huì)在短期內(nèi)取代能夠在網(wǎng)絡(luò)上抓取真實(shí)世界數(shù)據(jù)的搜索引擎,至少在任何重要的事情上無法做到。也就是說,它不是谷歌的替代物,我看它倒可能是臉書的替代物。
人工智能研究人員有個(gè)說法,AI系統(tǒng)會(huì)頻繁地產(chǎn)生“幻覺”(hallucination), 即編造與現(xiàn)實(shí)無關(guān)的事實(shí)。技術(shù)分析師本尼迪克特·埃文斯(Benedict Evans)將ChatGPT描述為 “一個(gè)自信的扯淡的家伙,可以寫出非常有說服力的廢話”。將它整合到搜索引擎中幾乎肯定會(huì)提供虛假信息。虛假信息本來在互聯(lián)網(wǎng)上俯拾皆是,但它們不是以人工智能的權(quán)威性來提供的。很大的危險(xiǎn)在于,ChatGPT是錯(cuò)誤的或有偏見的,但聽起來卻像是正確的和權(quán)威的。
然而我們有另一種思考幻覺的方式:如果目標(biāo)是產(chǎn)生一個(gè)正確的答案,比如一個(gè)更好的搜索引擎,那么幻覺是必須加以摒棄的。但從另外的角度來看,幻覺是一種創(chuàng)造。所以,提供準(zhǔn)確信息不在行,并不意味著它不是一個(gè)可行的消費(fèi)者業(yè)務(wù),只要在這條路上走得足夠遠(yuǎn),一些公司會(huì)想出辦法,把辛迪妮從聊天框里放出來,帶到市場(chǎng)上(但不一定是微軟或谷歌)。
幻覺的市場(chǎng),比事實(shí)和真相大得多。2023年1月,微軟在一篇宣布同OpenAI擴(kuò)大合作關(guān)系的博文中說,它計(jì)劃投資部署專門的超級(jí)計(jì)算系統(tǒng),以加速OpenAI的人工智能研究,并將OpenAI的人工智能系統(tǒng)與它的產(chǎn)品相結(jié)合,同時(shí)“引入新類別的數(shù)字體驗(yàn)”。
或許,那種新的數(shù)字體驗(yàn),就是幻覺。歡迎來到幻覺時(shí)代。