卡珊德拉的詛咒:預(yù)測災(zāi)難 1 人工智能
人類的真正問題在于……我們擁有舊石器時代的情感、中世紀時期的體制和上帝般的技術(shù)。
想象一個畫面,20架無人機從福特級航空母艦的甲板上起飛,飛向目標島嶼,很快就從視線中消失不見。由于對方干擾了指揮和控制頻率,美軍很快失去了與這些無人機的通信。無人機瞬間便轉(zhuǎn)入自動模式,使用無法被干擾的激光相互之間交流著。很快,這群無人機,作為一個攻擊力量,發(fā)現(xiàn)了目標船只。它們將多譜數(shù)據(jù)與機載數(shù)據(jù)進行匹配,識別出了敵方的戰(zhàn)斗力量。幾乎在瞬間,這些無人機進行了數(shù)百萬次計算,確定哪艘船是最大的威脅,要首先攻擊哪艘船,接著,確定哪架無人機攻擊哪個目標。然后,襲擊開始了,這群無人機似乎從各個方向和高度 對著目標發(fā)射導(dǎo)彈。

這就是美國海軍設(shè)想開發(fā)的X–47B,第一架從航空母艦上發(fā)射并收回的無人機。諾斯洛普·格魯門公司將此類無人機設(shè)計成群體飛行,目的包括識別敵方目標并同時發(fā)動攻擊,整個過程沒有人為操作。美國空軍也一直在規(guī)劃開發(fā)用于殺人的自主無人機,其《2009— 2047美國空軍無人機系統(tǒng)飛行計劃》寫道,無人機使用人工智能軟件自行做出生死決策只是一個時間問題。2012年11月,當時任國防部長的利昂·帕內(nèi)塔發(fā)布《國防部指令 3000.09》之后,美國軍方叫停了運用人工智能開發(fā)自動殺人系統(tǒng)的計劃。五角大樓的這項政策禁止使用自主殺人系統(tǒng)。該指令十分必要,因為創(chuàng)造這種“機器人殺手”的技術(shù)已經(jīng)成了現(xiàn)實。
其實,美國國防部早在10年前就已經(jīng)開發(fā)了低成本自主攻擊系統(tǒng),那是一種裝有噴氣式發(fā)動機的導(dǎo)彈,可以一直飛行,一旦看見敵方車輛后便會發(fā)動攻擊,整個過程無人干涉。雖然人工智能驅(qū)動武器的技術(shù)已經(jīng)實現(xiàn)了,但是我們?nèi)祟悓τ谒鼈儸F(xiàn)在以及未來的安全性和使用方法尚未有完全的把握。
會學習的機器人工智能是一個含義寬泛的術(shù)語,或許有些過于寬泛了。人工智能指的就是:一個計算機程序?qū)嵤┝艘豁椡ǔ1仨氂扇藖韺嵤┑娜蝿?wù),比如決策、語言翻譯以及數(shù)據(jù)分析。當大多數(shù)人想到人工智能時,他們真正想到的是科學家稱之為弱人工智能的人工智能,就是運行日常設(shè)備如計算機、智能手機甚至汽車的那種人工智能。任何計算機程序都能夠分析各種各樣的輸入信息,然后從一系列預(yù)先設(shè)置好的反應(yīng)程序中做出選擇并實行指令。今天,弱人工智能實施的是相對簡單的任務(wù):指揮機器人堆疊箱子,自動跟蹤股票交易,為汽車引擎設(shè)置空氣燃料混合物,或者運行智能手機的語音命令界面。
機器學習是一種實現(xiàn)人工智能的計算機編程技術(shù)。機器學習程序“有能力在沒有明確編程的情況下進行學習”,自我優(yōu)化,以最有效地實現(xiàn)一套預(yù)先設(shè)定的目標。機器學習仍處于起步階段,但隨著其日漸成熟,這種學習能力、這種計算機重新編程和自我優(yōu)化的能力,使得人工智能的未來與以前任何發(fā)明的未來都截然不同。計算機的自學、讓自己變得更加聰明的能力將形成“超級智能”?!俺壷悄堋笔侵冈谖覀兌x為智能的各個方面都比它的創(chuàng)造者 ——人類更為聰明的一種人工智能。目前還不存在“超級智能”,但是在它真的出現(xiàn)后,有人認為它將解決人類所面臨的所有重大問題:衰老、疾病、能源和食物短缺、氣候變化。這類人工智能可以自我循環(huán)、永不停息,所以將會以驚人的速度完善著,最終將到達一種超越人類理解范 圍的復(fù)雜高度。這既是人工智能的光明前景,或許也是它的危險之處。

專家將超級智能計算機的時代稱為“智能爆炸”。行業(yè)內(nèi)幾乎每一位計算機和神經(jīng)系統(tǒng)科學家都認為,智能爆炸將在接下來的70年里發(fā)生, 他們大都預(yù)測智能爆炸將在2040年前發(fā)生。2015年,用于開發(fā)人工智能 新技術(shù)的投資超過了85億美元。IBM的“沃森”超級計算機正在努力研究和執(zhí)行各種任務(wù),從玩智力游戲《危險邊緣》到診斷癌癥。而到2023年的今天,全世界都在布局AI人工智能的時候,投入更是無以計數(shù)。當?shù)厍蛏献盥斆鞯牟辉偈侨祟悤r,地球?qū)⑹鞘裁礃幼幽兀空缈苹眯≌f家兼計算機科學家弗諾·文奇所寫的:“‘電腦會在某一天變得和人類一樣聰明嗎?’這個問題的最佳答案也許是,‘會,但不會長久’?!彪S著興奮一起擴大的還有恐懼。天文物理學家和諾貝爾獎得主霍金博士警告說,人工智能“可能是發(fā)生在人類身上最好同時也是最糟糕的事情,所以正確的引導(dǎo)意義重大”。對超級智能表示擔憂的不僅僅是霍金一人??萍几锩臉酥拘匀宋铮缥④浨岸麻L比爾·蓋茨,亞馬遜創(chuàng)始人杰夫·貝佐斯,都表達了同樣的憂慮。
尤德考斯基更是對超級智能感到恐懼。尤德考斯基一生致力于阻止人工智能毀掉人類,尤德考斯基主要集中于根本的數(shù)學研究以確保人工智能最終只對人類產(chǎn)生積極的影響。終極問題在于,如何讓人類一直掌控著自己創(chuàng)造的一款機器,如何阻止人工智能變成“我們最后的發(fā)明”,就如詹姆斯·巴拉特在《我們最后的發(fā)明》一書中所論述的。尤德考斯基是一位有爭議的人,他在學術(shù)界和硅谷以創(chuàng)造了“友好的人工智能”一詞而聞名。雖然提供的解決方法很復(fù)雜,但是他的論點很簡單:如果我們想要對抗超級能力,那么我們一開始就需要正確編程。尤德考斯基認為,答案涉及道德。人工智能的編碼必須是符合人類道德規(guī)范的。雖然一生都撲在這一件事上,但尤德考斯基很確定自己終會失敗。他告訴我們,人類可能注定要失敗。
人類會孜孜不倦地追逐創(chuàng)造超級智能,因為其握有不可思議的潛力,可以改變世界。許多人相信在超級智能問世之后,它會迅速地提升自身能力,它將能應(yīng)對并解決科學家提出的最高深、最復(fù)雜的挑戰(zhàn),甚至是他們認知力之外的挑戰(zhàn)。
超級智能計算機會遞歸地自我升級,達到人類難以理解的智能層面,而且這種自我升級需要多久,是很長時間還是轉(zhuǎn)瞬之間,人類不得而知。它會永不停歇地更新自身的源代碼,制造 新的機械工具,在人類未知的領(lǐng)域進行全新的探索發(fā)現(xiàn)。
人工智能有潛力比以往任何一次科學進步都更為強大有力。根據(jù)牛津大學尼克·博斯特羅姆所言,超級智能“不僅是另一種技術(shù)、另一種能逐步增強人類能力的工具”,它是“與眾不同的”, 它“可能是人類所需要做的最后一項發(fā)明”。從尤德考斯基天馬行空的想象中,我們可以一窺超級智能的預(yù)期實力。幾乎所有的人工智能理論家都預(yù)測超級智能已在路上,即便最強大的人類大腦的認知能力在其面前也將黯然失色,人類將無法理解它的知識馬力,要理解消化的太多了。
尤德考斯基等人觀察和思考超級智能的視角十分貼近達爾文學說。一旦人類不再是地球上最聰明的物種,那么他的存亡將取決于超越他的物種的想法。他擔心這樣的超級智能軟件會占用互聯(lián)網(wǎng),控制聯(lián)網(wǎng)的一切,包括電力基礎(chǔ)設(shè)施、通信系統(tǒng)和制造工廠……它的第一要務(wù)可能是在全球眾多服務(wù)器上秘密地進行自我復(fù)制,作為備份。它能制造機械和機器人,甚至能潛移默化地影響普通人的決定,讓人類協(xié)助其實現(xiàn)目標。它的聰明程度遠勝于人類,大概對人類和人類的處境不屑一顧。

IBM“沃森”超級計算機
有不少人認為馬斯克創(chuàng)造人工智能是“召喚惡魔”的舉動,并將其視為人類“最大的生存危機”。當被問及人工智能會危及人類哪些方面時,尤德考斯基簡明地回答道:一切。超級智能一旦出錯,將會是一場物種層面的威脅、一件關(guān)乎人類存亡的大事件。人類并非地球上最迅猛或最強壯的生物,人類之所以能主導(dǎo)地球,得益于我們是最聰明的。如果人工智能變成了超級智能,這種權(quán)力格局將如何演變?尤德考斯基說:“當機器人具有人工智能系統(tǒng)的雛形時,機器人可能已經(jīng)比你聰明了,機器人在智力上將你遠遠甩在身后的那一天并非遙不可及。”他相信,“對整個人類物種來說,現(xiàn)在是緊要關(guān)頭,不僅對我們?nèi)绱耍瑢Υ嬖谂c否取決于我們的未來而言也是如此。
這不是某個人的問題?!叭斯ぶ悄懿缓弈?,也不愛你,但你是由原子組成的,人工智能可以拿著這些原子來生產(chǎn)其他東西。” 有自我意識的電腦和殺手機器人是大熒幕上的???,但有人認為智能爆炸將比好萊塢呈現(xiàn)出來的情形糟糕得多。人工智能程序員羅德希爾默在接受NBC采訪時探討了電影《終結(jié)者》系列,這是個超級智能的電腦系統(tǒng)天網(wǎng)對抗人類的故事。
羅德希爾默先生:《終結(jié)者》里人工智能擺脫了控制,但是仔細想想的話,情況會比那更糟糕。
美國國家公共廣播電臺:比《終結(jié)者》更糟糕?
羅德希爾默先生:糟糕得多。
美國國家公共廣播電臺:這怎么可能?電影里一片荒涼蕭瑟,人們藏在燒焦倒塌的建筑物下面,被激光掃射。我是說還有什么情況能比這更糟糕?
羅德希爾默先生:所有人都死去。
美國國家公共廣播電臺:換句話說,人類不會英勇地抵抗。人類連組織反抗的時間都沒有?;剀囨I一按,人類就完蛋了。
尤德考斯基認為超級智能從設(shè)計之初就必須將道德倫理等納入考量。他將其想象成一套制約與平衡體系,這樣一來,先進的人工智能的發(fā)展就是可審計的、可控制的,這樣即便它不斷地學習、升級、自我重組,也不會偏離自身良性的設(shè)定。類似的預(yù)編程序措施將有助于確保超 級智能“即使在缺乏人類即時監(jiān)督的情況下,也能按照人類的預(yù)期行事”。他將這稱作“友好的人工智能”。
據(jù)尤德考斯基所言,在人工智能獲得廣泛的自我重組能力之后再去 實施防御措施將為時過晚,因而人類社會應(yīng)從此刻起做好應(yīng)對智能爆炸的準備。然而,準備過程是復(fù)雜的,因為科學進步是孤立分散、難以預(yù)測的,而且世界上有太多人在秘密嘗試著創(chuàng)造超級智能。超國家組織無力追蹤所有試驗的進展,更無力預(yù)測誰會在何時取得成功。

超級智能的誕生可能是在5年后,也可能是在40年、60年后,”尤德考斯基說道,“你不知道,我不知道,地球上沒人知道。當你真的知道時,采取任何措施都將為時已晚?!?拔掉電源也無濟于事可能是深受好萊塢影響,也可能是人類忍不住將智能電腦人格化,許多人在超級智能和有感知力的機器人之間畫了等號。不管它們個性友 好還是兇殘,它們都是“實體人工智能”的代表,也就是藏在個體機器人或服務(wù)器里的超級智能。人類可以輕松地按下機器人的開關(guān)鍵這個想法使人心生安慰,然而,超級智能或許無須離開云端便可造成破壞甚至毀 滅人類。
超級智能還有另一種存在形式,即“無實體的人工智能”,它并不存在于一臺機器的某個具體可觸摸的地方,而是以程序的形式存在,運行在世界各地互相連通的電腦里。尤德考斯基擔心這樣的超級智能,即便最初誕生在實驗室里,也很容易從本土服務(wù)器逃到彼此相聯(lián)的世界各地去。一旦逃脫出來,它將會勢不可擋地與全球計算機網(wǎng)絡(luò)緊密結(jié)合起來,幾乎再無根除的可能。
尤德考斯基認為試圖牽制、禁錮具有潛在危險的人工智能的種種舉措皆會失敗。它總會找到逃脫的方式,包括通過操控的方式逃離。為證明自己的觀點,他設(shè)計了一個名為“人工智能盒子試驗”的簡單游戲,他扮演人工智能角色,而另外一人扮演人類守護者角色。他打賭說,在兩小時內(nèi),僅僅通過發(fā)送文字信息的方式,他能說服守護者允許自己上網(wǎng)。雖然守護者在游戲開始前自信滿滿、意志堅定,但他最終輸了,人工智能五局三勝。這個實驗只是人對人的簡單較量;在現(xiàn)實生活中,擁有超人類智能的人工智能會更循循善誘,更堅持不懈,直至擺脫束縛。而且最近的安全測試中人工智能已經(jīng)學會使用謊言來獲取重要信息。
隨著超級智能的來臨,尤德考斯基相信恐懼、貪婪、偏見和國家安全考量等會淹沒他發(fā)出的警告聲。他稱人類最大的希望可能是在確保高度安全的情況下,集中資金,多邊協(xié)作,建立一個友好的超級智能,人類居于中心,掌控全局。這一規(guī)模巨大的全球曼哈頓計劃毫無疑問是“為了全球人類的福祉”。同時,它會取締、 壓制或直接超越其他考慮欠周的超級智能開發(fā)活動。從建立之時起,這一友好的人工智能將會不受束縛地攻擊并摧毀其他的競爭性舉措,以確保唯一存在的超級智能將會協(xié)助而非摧毀人類。
尤德考斯基否定了超級智能應(yīng)當或能夠被用來維護狹義的國家安全利益這一觀點,相反的,他認為所有的應(yīng)對之策都應(yīng)從人類物種層面進行考量?!俺壷悄懿⒉灰驗樗诿绹耸种小拇罄麃喨耸种谢蚍姨m人手中而變得無害,”他有些沮喪地說,“如果某國成功制造出了超級人 工智能,而且其人工智能是安全的……他們能夠安全地向本國人工智能發(fā)布‘摧毀美國所有的人工智能項目的計算機’的指令。我們應(yīng)該為此心存感激。鑒于人工智能的破壞性,如果他們果真能使其安全,如果他們果真能利用它,那么我將佩服得五體投地,我會向他們鞠躬表示感謝,因為我們至少不會被當成分子原料了。事實就是這么嚴峻。” 尤德考斯基感到很惋惜,還有一個備選方案,即“像比爾·蓋茨一樣的人物意識到我們要完蛋了……并且明白事情為何會如此艱難,然后開展自己的小型項目”。然而,他對此并不樂觀:“如果我們偏離了當前軌道的話,恐怕我們連那一步也走不到,我們完蛋了?!?/p>
尤德考斯基用非常務(wù)實的方法來看待世界,他在與人溝通時遵從了克羅克法則,法則之一即最高效的溝通方式總是最好的,即便以違背社交禮節(jié)為代價。這種生硬直白的溝通風格從長期來看會疏遠潛在的盟友。有人視尤德考斯基為理智的代表,有人稱其為散布恐懼情緒者,認為他總是錯位地夸大其詞、自視甚高。固執(zhí)樂觀的技術(shù)專家強調(diào)人工智能當前及未來會如何造福社會。IBM首席執(zhí)行官羅睿蘭說:“未來,人類所做的每一個決定都是由‘沃森’一樣的認知系統(tǒng)形成的,我們的生活會因此變得更加美好?!盜BM的另一位執(zhí)行官駁斥了“沃森”可能會變成威脅的觀點,他的理由是“‘沃森’所能接觸到的數(shù)據(jù)都是我們給它的。它沒有能力自己 走出去,以智能機器人的形式構(gòu)建自己的數(shù)據(jù)庫?!?/p>
黑客帝國動畫版 機器人與人類決裂
IBM鼓吹自家技術(shù)安全可靠是有充分理由的,那就是到2023年時,“沃森”預(yù)計將會為 IBM公司創(chuàng)造100億美元的收入。 知名的未來主義者和人工智能支持者雷·庫茲韋爾歡迎超級智能的到來,他相信人類和機器將會在“奇點”里幸福地結(jié)合在一起。他想象著技術(shù)與人類思想和感官愈加緊密地合作共生,但是,他也贊同尤德考斯基“友好的人工智能”的目標,也認同不受控制的機器智能的危險性?!拔磥韼资昀?,我們將有機會大步向前,解決人類面臨的巨大挑戰(zhàn)。人工智能是取得這些進步的關(guān)鍵核心技術(shù)。推動人類進步,同時掌控危險是我們義不容辭的道義責任?!?/p>
2013年,550位世界知名人工智能專家接受了調(diào)查,就與人類水平 相同的人工智能實現(xiàn)的時間及風險給出了自己的答案。他們共同預(yù)測道,到2022年開發(fā)出與人類水平相同的人工智能的可能性為10%,2040 年時可能性為50%,2075年前的可能性為90%。“專家預(yù)測人類水平的人 工智能實現(xiàn)后30年內(nèi),超級智能將成為現(xiàn)實。”另外,當被問及長期影響時,54%的專家預(yù)測超級智能將對人類產(chǎn)生中性或消極的影響,19%的預(yù)測會造成生存危機,15%的預(yù)測影響會很糟糕,20%的認為影響會是中性的。
尤德考斯基等人在過去這些年里針對人工智能發(fā)出的預(yù)警已經(jīng)開始在人工智能團體里產(chǎn)生影響。美國國防部高級研究計劃局的任務(wù)是確保 美國軍隊是“戰(zhàn)略性新技術(shù)的使用者,而非受害者” ,它發(fā)起了一項“可解釋的人工智能”項目?!皺C器學習和深度學習算法……我們并不 完全明白它們現(xiàn)在如何運作?!毙碌目山忉尩娜斯ぶ悄艹h“給人類操作員提供更多細節(jié)信息,讓他們了解機器是如何通過深度學習得到答案 的”。
2015年,商業(yè)巨頭馬斯克和阿爾特曼創(chuàng) 建了OpenAI研究院,一家專注于人工智能研究的非營利性公司。馬斯克和阿爾特曼相信通過公開OpenAI的研究成果,通過私人捐助的形式為其提供資金,減少資金回報的需要,才能確保人工智能的開發(fā)是使所有人受益的,而非為某些自私自利的目標或毀滅性目標服務(wù)。他們及同道中人對人工智能的重要性深信不疑,所以他們承諾提供總計10億美元的援助。同時,馬斯克說他“愈加傾向于認為應(yīng)該有一些國家和國際層面的監(jiān)管和監(jiān)督,以確保我們不做愚蠢之事”。
弱人工智能:轉(zhuǎn)變是從華爾街到武器,不管你是否認同尤德考斯基的觀點,人工智能已經(jīng)變成了社會不可分割的一部分?,F(xiàn)代汽車、智能手機,甚至是一些器械都依賴人工智能。人工智能應(yīng)用于經(jīng)濟、醫(yī)療保障及司法系統(tǒng)的諸多方面。斯諾登泄密事件驅(qū)動的網(wǎng)絡(luò)新聞節(jié)目《攔截者》公布了一些自稱是來源于美國國家安全局的文件,這表明人工智能甚至在創(chuàng)建無人機秘密行動的目標名單方面發(fā)揮了一定作用。尤德考斯基、馬斯克和霍金等人關(guān)注的是未來 猖獗的超級智能造成的生存危機,其他人關(guān)注的則是弱人工智能的現(xiàn)狀及其將會如何繼續(xù)影響社會。
全球經(jīng)濟的穩(wěn)定性每天都依賴弱人工智能。大規(guī)模的機構(gòu)投資者將弱人工智能軟件與全球股票交易大廳直接連接了起來,以此來追逐新的利益。計算機通過使用精密復(fù)雜的算法,擔當高頻交易者,在幾分之一 秒內(nèi)買賣大量股票。這些機器交易者分析交易模型、余額明細表、監(jiān)管文件、新聞報道、社交媒體及其他渠道信息,然后買進或賣出股票,其間幾乎或完全不受人類干預(yù)。在越來越多的案例中,人類已經(jīng)難以理解電腦為何進行了交易。雖然極具秘密性,但高頻交易不是無足輕重的細枝末節(jié),它一直以來都是收益率最高的交易策略之一,占每天全球股票市場總量的50%~80%,僅美國股票交易市場每日買入量就有16億股。然而,這種毫不費力的自動化交易也有弱點:弱人工智能有時是會出差錯的、不可靠的。
2010年5月6日,美國股票市場經(jīng)歷了史無前例的崩盤。在這次“閃電崩盤”中,股市在不到10分鐘內(nèi)蒸發(fā)了1萬億美元。然后,股市又以迅雷不及掩耳之勢恢復(fù)了。調(diào)查顯示,高頻交易者的自主算法中出現(xiàn)的錯誤至少是部分原因。
人工智能從根本上改變了華爾街的生態(tài),也以全新且顯著的方式變著美國普通民眾的生活。作為深度學習之父,吳恩達認為將注意力放到超級智能的威脅上是關(guān)注點的錯位。作為雄心勃勃的人工智能系統(tǒng)谷歌大腦背后的人物,吳恩達認為“在當下為邪惡的超級智能感到憂慮就如同擔心火星上人口過剩。我們還沒在火星上著陸呢”。他認為不妨將資源和時間分配在更務(wù)實的現(xiàn)實問題上,比如在他看來弱人工智能將會引發(fā)的裁員問題。
牛津大學2013年的一項研究顯示,美國47%的就業(yè)崗位極有可能在 20年內(nèi)被機械化取代。研究表明,除藍領(lǐng)工作崗位外,越來越多的腦力勞動者也會面臨風險。日益進步的弱人工智能和大數(shù)據(jù)的結(jié)合,將會擠占股票經(jīng)紀人、醫(yī)療診斷專家、信息技術(shù)輔助人員和旅行社職員的崗位。另外,律師、醫(yī)生和投資經(jīng)理人等也很快會發(fā)現(xiàn)自己在與弱人工智能軟件的較量中敗下陣來,因為軟件能更為迅速地評估相關(guān)數(shù)據(jù),并依靠自身“深度的、專業(yè)的、有時隱性的知識” 做出決定。麥肯錫全球研究所的一項研究顯示,弱人工智能將會在全球范圍內(nèi)擠走 1.4億名全職腦力勞動者。技術(shù)革新是人類歷史的一部分;輪子、火藥、蒸汽、汽車、計算機的使用都曾引發(fā)了系統(tǒng)性的社會變革。很少有人會否認這種變革推動了社會進步。“馬車夫”隨著無馬車時代的到來而失掉了工作,這一詞語也成了用來奚落調(diào)侃的詞匯,用來代指那些被技術(shù)進步拋在后面的工人。被遺忘的是皮鞭生產(chǎn)廠,它們本來能夠轉(zhuǎn)型,在新的汽車行業(yè)中獲利。
吳恩達等人認為弱人工智能的破壞性更強。在20年內(nèi)減少47%的工作崗位,這比世界歷史上任何一次技術(shù)進步引發(fā)的失業(yè)問題都更加來勢洶洶。人工智能還不同于以往的技術(shù)演進,被弱人工智能取代的工人難以重新加入勞動力大軍,因為不存在那么多空缺的崗位。就算弱人工智 能的出現(xiàn)不預(yù)示著他們勞動生涯的結(jié)束,也可能預(yù)示著他們掙錢能力的消失。工作崗位、目標和生產(chǎn)力意識的喪失勢不可擋,其影響可能比人們想象的更為嚴重。當機器能夠勝任大部分工作時,人類將要扮演什么角色呢?當勞動力無法再掙到錢時,社會會變成什么樣子呢?
人工智能可能導(dǎo)致戰(zhàn)爭升級,一場致命的新軍備競賽正在進行。自主無人武器被視為第三次戰(zhàn)爭革命,這種武器無須人力干預(yù)便可自動選 定目標并開火。韓國部署了Super Aegis II,這種自主炮塔系統(tǒng)能識別并 攻擊3000米內(nèi)的危險目標。英國的“自主引導(dǎo)”硫磺石反坦克導(dǎo)彈能在預(yù) 設(shè)范圍內(nèi)自動追擊目標,無須人類指揮。美國海軍最近公開的錄像顯 示,自主無人戰(zhàn)斗艦群能趕超并毀壞敵對船只,無須人類干預(yù)。其還悄 悄地取消了一份合約,內(nèi)容是建造部署無人作戰(zhàn)機的航母艦隊。無人中隊也曾計劃配置諾斯洛普·格魯門公司研發(fā)的型號為X–47B的無人攻擊機。威廉·羅珀是美國高級國防官員,負責打造新一代戰(zhàn)斗部隊,他將人工智能放到了戰(zhàn)略的核心地位。他希望人工智能輔助未來戰(zhàn)士,未來戰(zhàn)士將指揮自主戰(zhàn)爭機器編隊。

我,機器人里的AI
但是,羅珀明白這一目標的艱巨性。“令人感到可怕的是人工智能的計算時間和反應(yīng)時間會不斷加速,并超出人類能干預(yù)的能力范圍。”一旦人類成了整個作戰(zhàn)決策過程中最慢的一環(huán),其他有自主武器的國家不太可能會將人類留在“殺傷鏈”,即戰(zhàn)時決策等級內(nèi)。這讓羅珀很是擔憂:“未來,有些沖突和戰(zhàn)爭在人類了解事情的前因后果之前就已經(jīng)發(fā)生了。”計算卡珊德拉系數(shù)弱人工智能帶來的挑戰(zhàn)令人恐懼,但與尤德考斯基提出的預(yù)警,無限制發(fā)展的超級智能可能導(dǎo)致人類滅亡相比,這些挑戰(zhàn)仍然遜色不少。雖然專家預(yù)測其誕生最快也要10年或更久,但這并不意味著我們有數(shù)十年的時間可以用來計劃部署。尤德考斯基、馬斯克、蓋茨和霍金等人建議應(yīng)從現(xiàn)在開始著手準備。我們應(yīng)在何種程度上關(guān)心這一威脅?
尤德考斯基的預(yù)警無疑受到了第一次綜合征的影響。人類之前從未遇到過智力水平居于自身之上的物種,因而難以相信其真實性,更談不上提前預(yù)見其存在,并為此做好全面的準備了。同時,復(fù)雜性失配可能導(dǎo)致決策者缺乏意愿或能力來消化問題,提煉出問題的癥結(jié),找到解決之道。另外,在許多人看來,這一問題確實奇異古怪,像是科幻電影,殺手機器人?機器占領(lǐng)世界?超級智能那有些異想天開的特質(zhì)會不會導(dǎo)致人們對其抱有危險的、輕視的偏見?答案是肯定的尤德考斯基的觀眾面臨著責任不明的困境。美國政府或世界組織內(nèi)沒有個人或機構(gòu)對保護世界、使其不被超級智能破壞負有責任。
目前連一個公認的人工智能安全協(xié)議方面的科學大會都不存在。合法的監(jiān)管必須是多邊的,需要每個工業(yè)化政府的最高層著手協(xié)作,而且需要對政府和商用實驗室進行嚴格的突擊檢查。尤德考斯基是以數(shù)據(jù)為導(dǎo)向的專家,他終生致力于阻止這一災(zāi)難的發(fā)生。他展現(xiàn)出了所有的卡珊德拉特質(zhì),不具有低社會權(quán)力下的卡珊德拉弱點。即便如此,他奇特的關(guān)注點和他對替代性的社會規(guī)范的堅持使其疏遠了一些人,這些人或許可成為其倡導(dǎo)者,甚至可能對問題的解決貢獻一己之力。卡珊德拉令人氣惱、疏遠的個性是難以克服的障礙嗎?
最后,尤德考斯基的批評者都有其既得利益,使其反對監(jiān)管或減緩人工智能的發(fā)展步伐的努力。不管對行業(yè)中人還是對政府而言,超級智能都握有無法比擬的競爭優(yōu)勢。他們能在討論中繼續(xù)保持客觀的態(tài)度呢,還是他們已然對威脅產(chǎn)生了偏見?解決辦法即通過全球曼哈頓計劃來開發(fā)安全的人工智能,這可能是我們所能想象的最復(fù)雜的、多邊的、官僚政治的辦法之一。美國與其特定盟友的聯(lián)盟可能更為合理,但是類似的方法從未被納入考量范圍。我們已經(jīng)收到了警告,即我們有且只有一個機會把事情做對?;蛟S我們在打開一扇再也關(guān)不上的門之前,應(yīng)該先認真對待尤德考斯基的觀點和意見。