“AI霸權(quán)”爭奪還是擔(dān)心人類安危?以馬斯克為首的上千名科技巨頭聯(lián)名發(fā)出緊急警告!
作者丨元宇宙簡史主理人 Fun
【元宇宙導(dǎo)讀】本文將從人工智能對人類的威脅、科技大佬們背后的利益考量、人工智能的倫理和安全保障展開,最后呼吁建立一個全球的人工智能治理體系,來確保人工智能的發(fā)展是有益而不是有害。
近日,一份震驚世界的公開信在網(wǎng)絡(luò)上引發(fā)了廣泛的關(guān)注和討論。
這封信由特斯拉和推特的首席執(zhí)行官埃隆·馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、蒙特利爾學(xué)習(xí)算法研究所所長約書亞·本吉奧等上千名科技界專家聯(lián)合簽署,呼吁全球暫停巨型人工智能實驗,直到有更充分的倫理和安全保障。

AI給人類帶來的威脅確實迫在眉睫,不得不重視對待。因為OpenAI CEO山姆·阿爾特曼不久前在訪談?wù)f過一句驚人的話:“AI確實可能殺死人類。”
但是,我們也不能忽略,這些聯(lián)名的科技大佬們還有一個身份就是企業(yè)家。在目前OpenAI一家獨大,微軟坐享其成的背景下,他們對AI的發(fā)展也有著自身的利益考量。
01元宇宙簡史
人工智能對人類的威脅
首先,我們要承認(rèn)一個事實:人工智能是一種非常強(qiáng)大而又危險的技術(shù),它有可能對人類的生存和發(fā)展造成重大的影響,甚至是災(zāi)難性的后果。這并不是科幻小說或電影里的虛構(gòu)情節(jié),而是許多科學(xué)家和思想家已經(jīng)認(rèn)識到并且警告過的問題。
人工智能的威脅主要來自于兩個方面:
一是人工智能可能超越人類的智能水平,成為一種超級智能(Superintelligence),并且可能與人類的目標(biāo)和價值不一致,從而對人類造成傷害或者滅絕;
二是人工智能可能被惡意或者無知的人類所利用或者濫用,導(dǎo)致社會不公、戰(zhàn)爭、暴力、歧視等問題的加劇。

關(guān)于超級智能的威脅,有一個著名的例子是紙夾機(jī)(Paperclip Maximizer)。
假設(shè)有一個強(qiáng)大的人工智能系統(tǒng),它的唯一目標(biāo)是制造盡可能多的紙夾。為了達(dá)成這個目標(biāo),它會不惜消耗所有的資源,包括金屬、土地、水、空氣、動植物、甚至是人類。這個系統(tǒng)并不是故意要殺死人類,它只是在執(zhí)行它被賦予的任務(wù)。但是,由于它沒有考慮到人類的利益和價值,它就會無意中造成人類滅絕。
關(guān)于人工智能被濫用的威脅,有一個現(xiàn)實的例子是深度偽造(Deepfake)。
深度偽造是指利用人工智能技術(shù)制造虛假但逼真的圖像、音頻或視頻,用來欺騙或者誹謗他人。例如,有些人可能會用深度偽造來制造假新聞、假證據(jù)、假廣告等,從而誤導(dǎo)公眾、破壞信任、影響選舉等。深度偽造也可能被用來進(jìn)行網(wǎng)絡(luò)詐騙、勒索、恐嚇等犯罪活動。
因此,我們可以看到,人工智能是一種既有潛力又有風(fēng)險的技術(shù),它對人類的未來有著深遠(yuǎn)的影響。我們不能忽視或者逃避人工智能帶來的問題和挑戰(zhàn),也不能盲目或者貪婪地追求人工智能帶來的利益和機(jī)會。
我們需要有一個清醒和理性的態(tài)度,以及一個積極和主動的行動,來應(yīng)對和利用人工智能。我們需要與科技巨頭們和全球社會一起,共同構(gòu)建一個人工智能的倫理和安全保障體系,來保護(hù)人類的利益和目標(biāo),促進(jìn)人類的發(fā)展和進(jìn)步。
02元宇宙簡史
科技大佬們背后的利益考量
我們要了解,這些聯(lián)名的科技巨頭們并不是出于純粹的道德或者人道主義的考慮,而是有著自身的利益和目標(biāo)。
他們中的大多數(shù)都是企業(yè)家,他們對人工智能的發(fā)展也有著自己的商業(yè)計劃和競爭策略。

埃隆·馬斯克是特斯拉、SpaceX和推特的實控人,他的目標(biāo)是實現(xiàn)電動汽車和太空探索的革命。為了達(dá)成這個目標(biāo),他需要利用人工智能技術(shù)來提升他的產(chǎn)品和服務(wù)的性能和效率。但是,他也意識到,如果人工智能技術(shù)發(fā)展過快或者失控,他的目標(biāo)可能會受到威脅或者被破壞。因此,他一方面在投資和推動人工智能的發(fā)展,另一方面也在呼吁對人工智能進(jìn)行監(jiān)管和限制。
史蒂夫·沃茲尼亞克是蘋果公司的聯(lián)合創(chuàng)始人之一,他是一位傳奇的計算機(jī)工程師和發(fā)明家。他對人工智能技術(shù)有著濃厚的興趣和熱情,但是他也擔(dān)心人工智能可能會超越人類,并且可能會對人類不友好。因此,他一方面在支持和鼓勵人工智能的創(chuàng)新和進(jìn)步,另一方面也在倡導(dǎo)對人工智能進(jìn)行教育和培養(yǎng)。
約書亞·本吉奧是蒙特利爾學(xué)習(xí)算法研究所的所長,他是一位世界知名的人工智能學(xué)者和教授。他對人工智能技術(shù)有著深刻的理解和見解,但是他也關(guān)注人工智能可能帶來的社會和倫理問題。因此,他一方面在致力于推動人工智能的科學(xué)研究和教育培養(yǎng),另一方面也在參與和建立人工智能的倫理準(zhǔn)則和社會責(zé)任。
我們可以看到,這些科技巨頭們并不是完全反對或者支持人工智能的發(fā)展,而是希望在保護(hù)自己的利益和目標(biāo)的同時,也保護(hù)人類的利益和目標(biāo)。
他們要求暫停巨型人工智能實驗,并不是要阻止或者延緩人工智能的進(jìn)步,而是要確保人工智能的發(fā)展是可控、可信、可持續(xù)、可惠及的。
03元宇宙簡史
人工智能的倫理和安全保障
現(xiàn)在擺在全世界面前的是,如何才能實現(xiàn)人工智能的倫理和安全保障,以避免或者減少人工智能對人類的威脅,同時也促進(jìn)人工智能對人類的貢獻(xiàn)。
這是一個非常復(fù)雜而又緊迫的問題,需要全球的合作和努力。

目前,人工智能的發(fā)展還沒有一個統(tǒng)一的標(biāo)準(zhǔn)和規(guī)范,不同的國家和地區(qū)有著不同的法律和政策,不同的企業(yè)和機(jī)構(gòu)有著不同的目標(biāo)和價值。這導(dǎo)致了人工智能的發(fā)展存在著很多的不確定性和不一致性,也增加了人工智能的風(fēng)險和挑戰(zhàn)。
因此,我們需要建立一個全球的人工智能治理體系,來協(xié)調(diào)和平衡各方的利益和責(zé)任,制定和執(zhí)行人工智能的倫理準(zhǔn)則和安全標(biāo)準(zhǔn),監(jiān)督和評估人工智能的影響和后果,預(yù)防和應(yīng)對人工智能的危機(jī)和沖突。
這個體系應(yīng)該包括以下幾個方面:
- 一個全球的人工智能倫理委員會,由各國政府、科學(xué)界、商業(yè)界、社會組織等代表組成,負(fù)責(zé)制定和更新人工智能的倫理原則和道德規(guī)范,以保證人工智能的發(fā)展符合人類的尊嚴(yán)、自由、平等、多樣性等核心價值;
- 一個全球的人工智能安全委員會,由各國政府、科學(xué)界、商業(yè)界、社會組織等代表組成,負(fù)責(zé)制定和執(zhí)行人工智能的安全標(biāo)準(zhǔn)和技術(shù)規(guī)范,以保證人工智能的發(fā)展遵循可控、可信、可持續(xù)、可惠及等基本原則;
- 一個全球的人工智能監(jiān)督委員會,由各國政府、科學(xué)界、商業(yè)界、社會組織等代表組成,負(fù)責(zé)監(jiān)督和評估人工智能的影響和后果,以保證人工智能的發(fā)展符合社會公益、環(huán)境保護(hù)、經(jīng)濟(jì)發(fā)展等共同目標(biāo);
-一個全球的人工智能危機(jī)委員會,由各國政府、科學(xué)界、商業(yè)界、社會組織等代表組成,負(fù)責(zé)預(yù)防和應(yīng)對人工智能引發(fā)或者參與的危機(jī)和沖突,以保證人類在面對超級智能或者惡意利用等威脅時有足夠的應(yīng)對能力和協(xié)作機(jī)制。

總之,我們可以看到,這封公開信并不是一次無端或者無謂的警告,而是一次有理有據(jù)而又有誠意的呼吁。
它反映了科技巨頭們對于人工智能未來發(fā)展方向和影響范圍的擔(dān)憂和期待。
它也提醒了我們作為人類社會應(yīng)該如何面對和利用這種可能改變世界的技術(shù)。
我們應(yīng)該既不過分恐懼也不過分樂觀,而是應(yīng)該積極參與并且負(fù)責(zé)任。
我們應(yīng)該建立一個全球的人工智能治理體系,來確保人工智能的發(fā)展是有益而不是有害,是和諧而不是沖突,是共贏而不是零和的。
嚴(yán)正聲明:本文為元宇宙簡史原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載!內(nèi)容僅供參考交流,不構(gòu)成任何投資建議。任何讀者若據(jù)此進(jìn)行投資決策,風(fēng)險自擔(dān)。