超級人工智能將帶來無限災(zāi)難——你敢相信它是否有意識并不重要嗎?
人工智能算法將很快達到快速自我改進的地步,威脅到我們控制它們的能力,并給人類帶來巨大的潛在風險
你能想象嗎?有一種東西,它比人類更聰明,而且它正在迅速進化……
這不是科幻小說,這是真實的危機。
谷歌的人工智能大佬Geoffrey Hinton,在辭去職務(wù)后,發(fā)出了驚人的警告:
“這種東西實際上可以變得比人更聰明的想法……我以為這很遠……顯然,我不再這樣認為?!?/strong>
他不是唯一一個擔心的人。
2023年,一項對人工智能專家的調(diào)查顯示,有36%的人認為,人工智能的發(fā)展可能導致“核級災(zāi)難”。
近28,000人簽署了一封公開信,要求暫?;驎和P碌南冗M人工智能開發(fā)六個月,其中包括史蒂夫·沃茲尼亞克、埃隆·馬斯克、幾家人工智能公司的首席執(zhí)行官和許多其他知名技術(shù)人員:“要求暫?;驎和P碌南冗M人工智能開發(fā)六個月”
作為一名意識研究人員,我與這些對人工智能快速發(fā)展的強烈擔憂一樣,我是生命未來公開信的聯(lián)合簽署人。
為什么我們都這么關(guān)心?
簡而言之:人工智能的發(fā)展太快了。
關(guān)鍵問題是,目前世界領(lǐng)先的先進“聊天機器人”或技術(shù)上所謂的“大型語言模型”(LLM)之間的對話得到了深刻的快速改進。
隨著即將到來的“人工智能爆炸”,我們可能只有一次機會做對。
如果我們弄錯了,我們可能無法活下去。
例如,谷歌的AlphaZero AI在首次打開后九小時內(nèi)學會了如何比最好的人類或其他人工智能棋手更好地下棋。它通過玩了數(shù)百萬次來完成這一壯舉。
一個分析OpenAI的GPT-4的微軟研究人員團隊表示,在一份新的預(yù)印本論文中,OpenAI的GPT-4是目前可用的新高級聊天機器人中最好的。
在測試GPT-4時,它在統(tǒng)一律師考試中的表現(xiàn)優(yōu)于90%的人體應(yīng)試者,該標準測試用于認證許多州的律師執(zhí)業(yè)。
這個數(shù)字僅高于之前GPT-3.5版本的10%,該版本是在較小的數(shù)據(jù)集上訓練的。
他們在數(shù)十個其他標準化測試中發(fā)現(xiàn)了類似的改進。這些測試大多是推理測試。
這就是為什么Bubeck和他的團隊得出結(jié)論認為GPT-4“可以合理地被視為人工智能(AGI)系統(tǒng)的早期(但仍然不完整)版本”的主要原因。
這種變化的步伐就是為什么Hinton告訴《紐約時報》:“看看五年前的情況和現(xiàn)在的情況,取差額并向前傳播,太可怕了?!?/strong>
在5月中旬參議院關(guān)于人工智能潛力的聽證會上,OpenAI負責人Sam Altman稱監(jiān)管“至關(guān)重要”。
一旦人工智能可以自我改進,這可能不超過幾年,事實上現(xiàn)在可能已經(jīng)在這里了,我們就無法知道人工智能將做什么,或者我們?nèi)绾慰刂扑?/strong>
這是因為超智能人工智能(顧名思義,在廣泛的活動中可以超越人類)將能夠通過操縱人類來執(zhí)行其意愿,從而在程序員和任何其他人類周圍繞圈子;它還將有能力通過其電子連接在虛擬世界中行動,并通過機器人身體在物理世界中行動。
這被稱為“控制問題”或“對齊問題”(請參閱哲學家Nick Bostrom的《超級情報》一書),幾十年來一直被Bostrom、Seth Baum和Eliezer Yudkowsky等哲學家和科學家研究和爭論。
“我們?yōu)槭裁雌谕律鷥涸趪H象棋中擊敗大師?我們不會,同樣,為什么我們期望能夠控制超級智能人工智能系統(tǒng)?”
“不,我們無法簡單地按下關(guān)閉開關(guān),因為超級智能人工智能會想到我們可能采取的一切可能方式,并采取行動防止被關(guān)閉”
還有另一種看待它的方式:
一個超級智能人工智能將能夠在大約一秒鐘內(nèi)完成由100名人類軟件工程師組成的團隊每年或更長時間才能完成的事情。
或者選擇任何任務(wù),比如設(shè)計一個新的高級飛機或武器系統(tǒng),超級智能人工智能可以在大約一秒鐘內(nèi)完成。
一旦人工智能系統(tǒng)被內(nèi)置到機器人中,他們將能夠以同樣程度的超級智能在現(xiàn)實世界中行動,而不僅僅是虛擬(電子)世界,當然將能夠以超人的速度復制和改進自己。
一旦人工智能達到超級智能狀態(tài),我們試圖在這些人工智能中構(gòu)建的任何防御或保護措施,都將在它們成為超級智能的路上被輕松預(yù)測和中和,這就是超級智能的含義。
“我們無法控制他們,因為我們想到的任何事情,他們都會想到,比我們快一百萬倍?!?br/>
“我們建立的任何防御都將被撤銷,就像Gulliver扔掉Lilliputians用來試圖約束他的小鏈一樣?!?br/>
同樣,人工智能可以以多種方式以零意識殺死數(shù)百萬人,包括可能直接(不太可能)或通過被操縱的人類中間人(更有可能)使用核彈。
因此,關(guān)于意識和人工智能的辯論真的沒有在關(guān)于人工智能安全的辯論中占有太大的地位。
是的,基于GPT-4和許多其他模型的語言模型已經(jīng)廣泛流傳。
但呼吁的暫停是停止開發(fā)任何比4.0更強大的新模型——如果需要,可以強制執(zhí)行。
訓練這些更強大的模型需要大量的服務(wù)器群和能源,它們可以被關(guān)閉。
“我的道德指南針告訴我,當我們已經(jīng)知道即使在相對較近的將來也無法控制它們時,創(chuàng)建這些系統(tǒng)是非常不明智的,辨別力是知道何時從邊緣拉回來,現(xiàn)在是那個時候了。”
“我們不應(yīng)該打開潘多拉的盒子,因為它已經(jīng)打開了”
你還敢繼續(xù)閱讀嗎?
你還敢相信你所看到和聽到的嗎?
你還敢相信你自己嗎?
這是一個沒有回答的問題,只有更多的謎團。
這是一個沒有出口的迷宮,只有更多的陷阱。
這是一個沒有盡頭的噩夢,只有更多的恐懼。
這!就是人工智能帶給我們的未來。
你————準備好了嗎?