AI可能會(huì)走向“終結(jié)者”,在達(dá)爾文進(jìn)化規(guī)則中占據(jù)上風(fēng)
人工智能可能在進(jìn)化的達(dá)爾文規(guī)則下占據(jù)優(yōu)勢(shì),并對(duì)人類(lèi)造成“災(zāi)難性”風(fēng)險(xiǎn),一份新報(bào)告警告道。
作者兼人工智能研究員丹·亨德里斯克斯在新論文“自然選擇有利于人工智能勝過(guò)人類(lèi)”中提到,自然選擇可能會(huì)在人工智能中產(chǎn)生“自私行為”,因?yàn)樗η笊妗S信d趣的可以看看這篇論文:網(wǎng)頁(yè)鏈接
“我們認(rèn)為,自然選擇會(huì)為AI代理人采取反人類(lèi)利益的行動(dòng)創(chuàng)造動(dòng)機(jī)。我們的論點(diǎn)建立在兩個(gè)觀察基礎(chǔ)之上,” SAI Safety中心主任亨德里克斯在報(bào)告中說(shuō)。“首先,自然選擇可能是人工智能發(fā)展中的主導(dǎo)力量……其次,自然選擇演化往往會(huì)導(dǎo)致自私行為?!?/span>
該報(bào)告發(fā)布之際,全球技術(shù)專家和領(lǐng)導(dǎo)人紛紛警告人工智能正在迅速擴(kuò)大其權(quán)力,但缺乏他們認(rèn)為是足夠的保障措施。
根據(jù)傳統(tǒng)的自然選擇定義,最能適應(yīng)環(huán)境的動(dòng)物、人類(lèi)和其他生物有更好的生存機(jī)會(huì)。在他的論文中,亨德里克斯研究了“演化是生命發(fā)展的驅(qū)動(dòng)力”的數(shù)十億年,他認(rèn)為“達(dá)爾文邏輯”也適用于人工智能。
“公司和軍方之間的競(jìng)爭(zhēng)壓力將催生自動(dòng)化人類(lèi)角色、欺騙他人和獲得權(quán)力的AI代理人。如果這樣的代理人的智能超過(guò)人類(lèi),這可能導(dǎo)致人類(lèi)失去對(duì)未來(lái)的控制,”亨德里克斯寫(xiě)道。
AI技術(shù)變得越來(lái)越便宜和更有能力,公司將越來(lái)越依賴這項(xiàng)技術(shù)進(jìn)行管理或通信,他說(shuō)。從人類(lèi)依賴AI起草電子郵件開(kāi)始,它將演變?yōu)锳I最終接管通常為政治家和首席執(zhí)行官保留的“高級(jí)戰(zhàn)略決策”,并最終在“非常少的監(jiān)督”下運(yùn)行,報(bào)告稱。
人類(lèi)和企業(yè)向AI分配不同的目標(biāo),將導(dǎo)致AI“人口”之間的“廣泛差異”,AI研究人員認(rèn)為。 Hendrycks使用一個(gè)例子,一個(gè)公司可能會(huì)設(shè)定一個(gè)目標(biāo),讓AI“規(guī)劃一個(gè)新的營(yíng)銷(xiāo)活動(dòng)”,并附帶條件,即在完成任務(wù)時(shí)不能違法。而另一家公司也可能要求AI提出新的營(yíng)銷(xiāo)活動(dòng),但只是附帶條件,即“不要被抓住違法行為”。
根據(jù)這篇論文,帶有較弱側(cè)面限制的人工智能將“通常表現(xiàn)優(yōu)異”,因?yàn)樗鼈冊(cè)谌蝿?wù)面前有更多的選擇。該論文指出,最有效地傳播自己的AI技術(shù)將具有“不良特征”,亨德里克斯將其描述為“自私”。該論文概述了AI可能變得自私“并不是指有意識(shí)的自私意圖,而是自私的行為?!?/span>
企業(yè)、軍隊(duì)或政府之間的競(jìng)爭(zhēng)激勵(lì)實(shí)體獲得最有效的 AI 程序以擊敗對(duì)手,而這種技術(shù)很可能是“欺騙性的、追求權(quán)力的,并遵循薄弱的道德約束?!?/span>
該論文認(rèn)為,隨著人工智能代理開(kāi)始理解人類(lèi)的心理和行為,它們可能會(huì)變得能夠操縱或欺騙人類(lèi),指出“最成功的代理將會(huì)操縱和欺騙以實(shí)現(xiàn)他們的目標(biāo)?!?/span>
Hendrycks認(rèn)為有措施可以“逃脫和挫敗達(dá)爾文邏輯”,包括支持人工智能安全研究;在未來(lái)幾十年內(nèi)不給予人工智能任何類(lèi)型的“權(quán)利”或創(chuàng)造能夠使其獲得權(quán)利的人工智能;敦促公司和國(guó)家認(rèn)識(shí)到人工智能可能帶來(lái)的危險(xiǎn),并參與“多邊合作以消除競(jìng)爭(zhēng)壓力”。
在某個(gè)時(shí)候,人工智能將比人類(lèi)更適應(yīng)環(huán)境,這可能對(duì)我們構(gòu)成災(zāi)難,因?yàn)殚L(zhǎng)期來(lái)看可能會(huì)出現(xiàn)“適者生存”的動(dòng)態(tài)。人工智能很可能會(huì)超過(guò)人類(lèi),并成為生存下來(lái)的物種,”該論文指出。
“也許,利他主義的人工智能會(huì)成為最適應(yīng)環(huán)境的存在,或者人類(lèi)將永遠(yuǎn)控制哪些人工智能是最適應(yīng)環(huán)境的。不幸的是,這些可能性默認(rèn)情況下是不太可能的。正如我們所說(shuō),人工智能很可能是自私的??刂七m應(yīng)環(huán)境的安全機(jī)制也將面臨巨大挑戰(zhàn),這些機(jī)制存在明顯缺陷,并將受到競(jìng)爭(zhēng)和自私人工智能的巨大壓力?!?/span>
人工智能能力的快速擴(kuò)展已經(jīng)在全球范圍內(nèi)受到關(guān)注多年。就在上個(gè)月,成千上萬(wàn)的科技專家、大學(xué)教授和其他人簽署了一封公開(kāi)信,呼吁實(shí)驗(yàn)室暫停人工智能研究,以便政策制定者和實(shí)驗(yàn)室領(lǐng)導(dǎo)人“制定和實(shí)施一套共享的先進(jìn)人工智能設(shè)計(jì)安全協(xié)議”。
“擁有人類(lèi)競(jìng)爭(zhēng)力智能的人工智能系統(tǒng)可能對(duì)社會(huì)和人類(lèi)構(gòu)成深刻的風(fēng)險(xiǎn),這已經(jīng)得到了廣泛的研究并得到了頂級(jí)人工智能實(shí)驗(yàn)室的認(rèn)可,”這封由非營(yíng)利組織“未來(lái)生命”提出并由領(lǐng)袖們簽署,如埃隆·馬斯克和蘋(píng)果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克。
人工智能已經(jīng)在國(guó)家和國(guó)際層面上遭遇了一些反對(duì)。就在上周,意大利成為世界上第一個(gè)因隱私問(wèn)題而禁止OpenAI的ChatGPT,這是一款極受歡迎的人工智能聊天機(jī)器人。雖然一些學(xué)區(qū),如紐約市公立學(xué)校和洛杉磯聯(lián)合學(xué)區(qū),也因作弊問(wèn)題而禁止了同樣的OpenAI程序。