最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

超級人工智能將帶來無限災(zāi)難——你敢相信它是否有意識并不重要嗎?

2023-05-28 05:32 作者:源之宇宙的王者  | 我要投稿

人工智能算法將很快達到快速自我改進的地步,威脅到我們控制它們的能力,并給人類帶來巨大的潛在風險




你能想象嗎?有一種東西,它比人類更聰明,而且它正在迅速進化……

這不是科幻小說,這是真實的危機。

谷歌的人工智能大佬Geoffrey Hinton,在辭去職務(wù)后,發(fā)出了驚人的警告:

“這種東西實際上可以變得比人更聰明的想法……我以為這很遠……顯然,我不再這樣認為?!?/strong>

他不是唯一一個擔心的人。

2023年,一項對人工智能專家的調(diào)查顯示,有36%的人認為,人工智能的發(fā)展可能導致“核級災(zāi)難”。

近28,000人簽署了一封公開信,要求暫?;驎和P碌南冗M人工智能開發(fā)六個月,其中包括史蒂夫·沃茲尼亞克、埃隆·馬斯克、幾家人工智能公司的首席執(zhí)行官和許多其他知名技術(shù)人員:“要求暫?;驎和P碌南冗M人工智能開發(fā)六個月”

作為一名意識研究人員,我與這些對人工智能快速發(fā)展的強烈擔憂一樣,我是生命未來公開信的聯(lián)合簽署人。

為什么我們都這么關(guān)心?

簡而言之:人工智能的發(fā)展太快了。

關(guān)鍵問題是,目前世界領(lǐng)先的先進“聊天機器人”或技術(shù)上所謂的“大型語言模型”(LLM)之間的對話得到了深刻的快速改進。

隨著即將到來的“人工智能爆炸”,我們可能只有一次機會做對。

如果我們弄錯了,我們可能無法活下去。

例如,谷歌的AlphaZero AI在首次打開后九小時內(nèi)學會了如何比最好的人類或其他人工智能棋手更好地下棋。它通過玩了數(shù)百萬次來完成這一壯舉。

一個分析OpenAI的GPT-4的微軟研究人員團隊表示,在一份新的預(yù)印本論文中,OpenAI的GPT-4是目前可用的新高級聊天機器人中最好的。

在測試GPT-4時,它在統(tǒng)一律師考試中的表現(xiàn)優(yōu)于90%的人體應(yīng)試者,該標準測試用于認證許多州的律師執(zhí)業(yè)。

這個數(shù)字僅高于之前GPT-3.5版本的10%,該版本是在較小的數(shù)據(jù)集上訓練的。

他們在數(shù)十個其他標準化測試中發(fā)現(xiàn)了類似的改進。這些測試大多是推理測試。

這就是為什么Bubeck和他的團隊得出結(jié)論認為GPT-4“可以合理地被視為人工智能(AGI)系統(tǒng)的早期(但仍然不完整)版本”的主要原因。

這種變化的步伐就是為什么Hinton告訴《紐約時報》:“看看五年前的情況和現(xiàn)在的情況,取差額并向前傳播,太可怕了?!?/strong>

在5月中旬參議院關(guān)于人工智能潛力的聽證會上,OpenAI負責人Sam Altman稱監(jiān)管“至關(guān)重要”。

一旦人工智能可以自我改進,這可能不超過幾年,事實上現(xiàn)在可能已經(jīng)在這里了,我們就無法知道人工智能將做什么,或者我們?nèi)绾慰刂扑?/strong>

這是因為超智能人工智能(顧名思義,在廣泛的活動中可以超越人類)將能夠通過操縱人類來執(zhí)行其意愿,從而在程序員和任何其他人類周圍繞圈子;它還將有能力通過其電子連接在虛擬世界中行動,并通過機器人身體在物理世界中行動。

這被稱為“控制問題”或“對齊問題”(請參閱哲學家Nick Bostrom的《超級情報》一書),幾十年來一直被Bostrom、Seth Baum和Eliezer Yudkowsky等哲學家和科學家研究和爭論。

“我們?yōu)槭裁雌谕律鷥涸趪H象棋中擊敗大師?我們不會,同樣,為什么我們期望能夠控制超級智能人工智能系統(tǒng)?”

“不,我們無法簡單地按下關(guān)閉開關(guān),因為超級智能人工智能會想到我們可能采取的一切可能方式,并采取行動防止被關(guān)閉”

還有另一種看待它的方式:

一個超級智能人工智能將能夠在大約一秒鐘內(nèi)完成由100名人類軟件工程師組成的團隊每年或更長時間才能完成的事情。

或者選擇任何任務(wù),比如設(shè)計一個新的高級飛機或武器系統(tǒng),超級智能人工智能可以在大約一秒鐘內(nèi)完成。

一旦人工智能系統(tǒng)被內(nèi)置到機器人中,他們將能夠以同樣程度的超級智能在現(xiàn)實世界中行動,而不僅僅是虛擬(電子)世界,當然將能夠以超人的速度復制和改進自己。

一旦人工智能達到超級智能狀態(tài),我們試圖在這些人工智能中構(gòu)建的任何防御或保護措施,都將在它們成為超級智能的路上被輕松預(yù)測和中和,這就是超級智能的含義。

“我們無法控制他們,因為我們想到的任何事情,他們都會想到,比我們快一百萬倍?!?br/>
“我們建立的任何防御都將被撤銷,就像Gulliver扔掉Lilliputians用來試圖約束他的小鏈一樣?!?br/>

同樣,人工智能可以以多種方式以零意識殺死數(shù)百萬人,包括可能直接(不太可能)或通過被操縱的人類中間人(更有可能)使用核彈。

因此,關(guān)于意識和人工智能的辯論真的沒有在關(guān)于人工智能安全的辯論中占有太大的地位。

是的,基于GPT-4和許多其他模型的語言模型已經(jīng)廣泛流傳。

但呼吁的暫停是停止開發(fā)任何比4.0更強大的新模型——如果需要,可以強制執(zhí)行。

訓練這些更強大的模型需要大量的服務(wù)器群和能源,它們可以被關(guān)閉。

“我的道德指南針告訴我,當我們已經(jīng)知道即使在相對較近的將來也無法控制它們時,創(chuàng)建這些系統(tǒng)是非常不明智的,辨別力是知道何時從邊緣拉回來,現(xiàn)在是那個時候了。”

“我們不應(yīng)該打開潘多拉的盒子,因為它已經(jīng)打開了”

你還敢繼續(xù)閱讀嗎?

你還敢相信你所看到和聽到的嗎?

你還敢相信你自己嗎?

這是一個沒有回答的問題,只有更多的謎團。

這是一個沒有出口的迷宮,只有更多的陷阱。

這是一個沒有盡頭的噩夢,只有更多的恐懼。

這!就是人工智能帶給我們的未來。

你————準備好了嗎?


超級人工智能將帶來無限災(zāi)難——你敢相信它是否有意識并不重要嗎?的評論 (共 條)

分享到微博請遵守國家法律
新和县| 吴旗县| 抚宁县| 高碑店市| 菏泽市| 德昌县| 汾阳市| 集安市| 福州市| 滁州市| 文登市| 永嘉县| 常山县| 巴彦淖尔市| 垦利县| 乐安县| 贵溪市| 乾安县| 塘沽区| 黄龙县| 兴城市| 麦盖提县| 昌宁县| 孟津县| 拜泉县| 山东| 通海县| 夹江县| 弋阳县| 嘉义县| 郧西县| 迁安市| 来宾市| 唐海县| 兴城市| 利辛县| 鄄城县| 沂水县| 沙湾县| 安徽省| 犍为县|