最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

OpenAI 創(chuàng)始人再簽聯(lián)名信,一句話聲明簡(jiǎn)短有力AI或引發(fā)滅絕風(fēng)險(xiǎn)

2023-05-31 16:25 作者:一起學(xué)chatGPT一起學(xué)ai  | 我要投稿



作者 | 劉燕,核子可樂 全球 AI 大牛又簽署一封公開信:AI 或?qū)⒁l(fā)“滅絕風(fēng)險(xiǎn)”

本周二,人工智能安全中心(CAIS)發(fā)布了一份由 OpenAI 及 DeepMind 高管、圖靈獎(jiǎng)獲得者及其他 AI 研究人員簽署的簡(jiǎn)短聲明,警告稱他們的畢生成果可能會(huì)毀滅全人類。

CAIS 表示,這份聲明希望討論“AI 所帶來的廣泛且緊迫的風(fēng)險(xiǎn)”。

正所謂字越少、事情越大,聲明內(nèi)容只有一句:“應(yīng)該像對(duì)待包括流行病和核戰(zhàn)爭(zhēng)等其他全球性迫切社會(huì)問題一樣,緩解 AI 引發(fā)的滅絕性風(fēng)險(xiǎn)。”

在聲明上簽字的名人包括圖靈獎(jiǎng)獲得者 Geoffery Hinton 和 Yoshua Bengio、OpenAI CEO Sam Altman、OpenAI 首席科學(xué)家 Ilya Sutskever、OpenAI 首席技術(shù)官 Mira Murati、DeepMind CEO Demis Hassabis、Anthropic CEO Dario Amodei,以及來自加州大學(xué)伯克利分校、斯坦福大學(xué)和麻省理工學(xué)院的多位教授,據(jù)悉,目前約超過 350 名從事人工智能工作的高管、研究人員和工程師簽署了這份公開信。

作為風(fēng)口浪尖上的人物,聲明發(fā)表之際 OpenAI 掌門人 Altman 正訪問全球,與各國元首就 AI 及其潛在風(fēng)險(xiǎn)展開討論。5 月初,Altman 還參與了美國參議院關(guān)于 AI 行業(yè)的監(jiān)管聽證。

這份關(guān)于 AI 風(fēng)險(xiǎn)的模糊聲明,很快激起了反對(duì)者的批評(píng)。

從內(nèi)容上看,這份聲明沒有對(duì) AI 做出確切定義、也沒有提及要如何緩解滅絕風(fēng)險(xiǎn),只是將這項(xiàng)工作放在了與其他全球性社會(huì)問題相同的高度。

但在另一份新聞稿中,CAIS 進(jìn)一步強(qiáng)調(diào)希望“設(shè)置護(hù)欄并建立相關(guān)機(jī)構(gòu),確保 AI 風(fēng)險(xiǎn)不會(huì)讓人類措手不及?!?/p> 2 個(gè)月前,馬斯克等人呼吁叫停 AI 研發(fā)

2 個(gè)月前,AI 領(lǐng)域數(shù)十人共同署名、科技富豪馬斯克高調(diào)參與的一封公開信震驚世界。

今年 3 月 22 日,生命未來研究所(Future of Life)向全社會(huì)發(fā)布了一封《暫停大型人工智能研究》的公開信,呼吁所有人工智能實(shí)驗(yàn)室立即暫停比 GPT-4 更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,暫停時(shí)間至少為 6 個(gè)月。

馬斯克、圖靈獎(jiǎng)得主 Yoshua Bengio、蘋果聯(lián)合創(chuàng)始人 Steve Wozniak、Stability AI 創(chuàng)始人兼 CEO Emad Mostaque、DeepMind 高級(jí)研究科學(xué)家 Zachary Kenton、AI 重量級(jí)人物 Yoshua Bengio(通常被稱為“AI 教父”之一)和該領(lǐng)域研究的先驅(qū) Stuart Russell 等上千名科技大佬和 AI 專家已經(jīng)簽署公開信。

公開信中提到,通過廣泛研究和頂級(jí) AI 實(shí)驗(yàn)室的調(diào)查認(rèn)可,具備類人智能的 AI 系統(tǒng)很可能對(duì)社會(huì)和人類構(gòu)成深遠(yuǎn)風(fēng)險(xiǎn)。正如廣受推崇的阿西洛馬 AI 原則中所述,高級(jí) AI 可能代表著地球生命史上一場(chǎng)影響深遠(yuǎn)的變化,應(yīng)給予相應(yīng)的關(guān)注和資源進(jìn)行規(guī)劃和管理。但遺憾的是,我們并沒有看到這種級(jí)別的規(guī)劃和管理。最近幾個(gè)月來,AI 實(shí)驗(yàn)室陷入了一場(chǎng)失控般的技術(shù)競(jìng)賽,全力開發(fā)和部署一顆顆愈發(fā)強(qiáng)大的“數(shù)字大腦”,但就連創(chuàng)造者自己都無法理解、預(yù)測(cè)或可靠地加以控制。

公開信認(rèn)為,這種暫停應(yīng)當(dāng)對(duì)外公開且可加驗(yàn)證,涵蓋所有關(guān)鍵參與者。如果未能迅速實(shí)施暫停,政府應(yīng)介入并強(qiáng)制要求其暫停。各 AI 實(shí)驗(yàn)室和獨(dú)立專家則應(yīng)把握這次暫停,共同開發(fā)和實(shí)施一套用于高級(jí) AI 設(shè)計(jì)和開發(fā)的共享安全協(xié)議,并由外部獨(dú)立專家進(jìn)行嚴(yán)格審計(jì)與監(jiān)督。這些協(xié)議應(yīng)確保依其構(gòu)建的系統(tǒng)具備無可置疑的安全性。AI 研究和開發(fā)工作應(yīng)當(dāng)集中注意力,努力讓目前最強(qiáng)大、最先進(jìn)的系統(tǒng)變得更準(zhǔn)確、更安全、更可解釋、更透明、更穩(wěn)健、更一致,也更加忠誠且值得信賴。與此同時(shí),AI 開發(fā)商必須與立法機(jī)構(gòu)合作,加快開發(fā)出強(qiáng)大的 AI 治理體制。

通過這封公開信可以看出,人們想要叫停更先進(jìn)的 AI 系統(tǒng)的研發(fā),無非是擔(dān)心在缺乏有效監(jiān)管的情況下,AI 發(fā)展太快會(huì)為人類社會(huì)帶來一系列潛在隱患和危險(xiǎn)。更重要的是,AI 太過強(qiáng)大了,發(fā)展到一定成程度時(shí)甚至人類都無法掌控它。

AI 倫理專家:并不 Care這類警告 AI 風(fēng)險(xiǎn)的公開信

但,長期關(guān)注 AI 倫理問題的專家,對(duì)這類公開信根本不感興趣。

Hugging Face 公司機(jī)器學(xué)習(xí)研究科學(xué)家 Sasha Luccioni 博士覺得 CAIS 的這封信如同兒戲:“首先,聲明把 AI 的假想風(fēng)險(xiǎn)跟流行病和氣候變化等現(xiàn)實(shí)威脅混為一談,這只會(huì)擾亂公眾的基本判斷。這同時(shí)也是一種誤導(dǎo),只要把公眾的注意力吸引到未來風(fēng)險(xiǎn)上,他們就會(huì)忽略當(dāng)前的更多有形風(fēng)險(xiǎn),比如 AI 偏見、法律糾紛和同意權(quán)等?!?/strong>

作家兼未來學(xué)家 Daniel Jeffries 也發(fā)推稱,“AI 的風(fēng)險(xiǎn)和危害如今成了一種表明立場(chǎng)的游戲,每個(gè)人都想在這波風(fēng)潮下扮演好人……問題是這么吵來吵去有用嗎?看著挺好,但沒人真正付出,完全是在浪費(fèi)時(shí)間?!?/p>

CAIS 是總部位于舊金山的非營利組織,目標(biāo)是通過技術(shù)研究和宣傳“減少 AI 引發(fā)的規(guī)?;鐣?huì)風(fēng)險(xiǎn)”。其聯(lián)合創(chuàng)始人之一 Dan Hendrycks 擁有加州大學(xué)伯克利分校的計(jì)算機(jī)科學(xué)博士學(xué)位,之前還曾在 DeepMind 實(shí)習(xí)。另一位聯(lián)合創(chuàng)始人 Oliver Zhang 也時(shí)常在 LessWrong 論壇上發(fā)表關(guān)于 AI 安全的帖子。

在機(jī)器學(xué)習(xí)領(lǐng)域,一部分 AI 安全研究者總是擔(dān)心比人類更聰明的超級(jí) AI 將很快出現(xiàn)、脫離約束,要么控制人類文明、要么徹底消滅人類文明。作為目前這波 AI 浪潮的發(fā)起者,OpenAI 的基礎(chǔ)安全工作也是圍繞著這種“AGI”(通用人工智能)焦慮而展開。換言之,AI 末日論在科技行業(yè)中已經(jīng)頗有市場(chǎng)。

但也有不少人覺得,簽署這樣一封內(nèi)容含糊的公開信沒有任何意義,無非就是讓從業(yè)者們減輕一點(diǎn)內(nèi)心深處的道德壓力。Luccioni 強(qiáng)調(diào),“這群創(chuàng)造出 AI 技術(shù)的人參與聲明,無非是給自己博取了個(gè)好名聲?!?/p>

這里澄清一點(diǎn),Luccioni 和她的同事們并非認(rèn)定 AI 毫無危害,而是覺得重點(diǎn)考慮未來的假想風(fēng)險(xiǎn)會(huì)讓人們忽略目前客觀存在的 AI 負(fù)面影響。這些影響正在帶來棘手的道德難題,而科技巨頭們卻無視威脅、大肆出售相關(guān)產(chǎn)品。

Hugging Face 首席倫理科學(xué)家 Margaret Mitchell 認(rèn)為,“某些弱勢(shì)群體已經(jīng)因此受到傷害:基于 AI 的監(jiān)控系統(tǒng)正強(qiáng)迫伊朗女性保持傳統(tǒng)穿著,甚至對(duì)某些群體施以監(jiān)視和軟禁?!?/p>

盡管有朝一日,某種形式的先進(jìn) AI 也許確實(shí)會(huì)威脅到全人類,但批評(píng)者們認(rèn)為 2023 年討論這個(gè)問題還為時(shí)過早、不可能帶來建設(shè)性的幫助。對(duì)于尚不存在的問題,如何開展研究?

Jeffries 也發(fā)推重申了這一觀點(diǎn),“AI 遠(yuǎn)期風(fēng)險(xiǎn)是種不切實(shí)際的幻想,我們無法解決并不存在的問題。這完全是在浪費(fèi)時(shí)間,我們應(yīng)當(dāng)集中精力解決當(dāng)下的問題,未來的事就交給未來去辦?!?/p> AI“教父”Yoshua Bengio :面對(duì)畢生工作成果,我也很“迷?!?/span>

近日,在這封最新的公開信上簽名的 AI 大??茖W(xué)家,Yoshua Bengio 在接受采訪中坦言,他開始對(duì)自己這一輩子的工作成果感到“迷?!?。


作為 AI 三大“教父”之一,他在該領(lǐng)域做出了不少開創(chuàng)性的貢獻(xiàn)。而 AI 的發(fā)展方向和驚人速度正引發(fā)他的憂慮。Bengio 教授表示自己曾經(jīng)出于認(rèn)同感而投身其中,但如今的狀況卻讓他困惑不已。

“從情感上講,身處 AI 領(lǐng)域內(nèi)部的人們肯定都受到了沖擊?!懊悦J钦娴模覀冞€是得繼續(xù)前進(jìn),必須參與其中、加入討論、鼓勵(lì)他人和自己一同思考?!?/p>

這位加拿大學(xué)者最近簽署了兩份聲明,敦促對(duì) AI 的未來風(fēng)險(xiǎn)保持謹(jǐn)慎態(tài)度。部分學(xué)者和行業(yè)專家已經(jīng)發(fā)出警告,稱 AI 發(fā)展過快可能導(dǎo)致這項(xiàng)技術(shù)被惡意人士濫用。即使拋開這一層,AI 自身也有可能引發(fā)惡劣影響。

Bengio 教授也加入了 AI 監(jiān)管的行列,并表示他個(gè)人認(rèn)為不該把 AI 的能力給予軍方。Bengio 教授認(rèn)為,一切構(gòu)建強(qiáng) AI 產(chǎn)品的企業(yè)都應(yīng)當(dāng)注冊(cè)報(bào)備。

“政府需要跟蹤這些企業(yè)的活動(dòng),對(duì)工作內(nèi)容展開審計(jì),對(duì) AI 產(chǎn)業(yè)起碼也要像飛機(jī)、汽車或制藥等領(lǐng)域一樣施加監(jiān)管?!?/p>

“我們還需要推動(dòng) AI 相關(guān)人員的資質(zhì)認(rèn)證……包括道德培訓(xùn)。大家可能不知道,計(jì)算機(jī)科學(xué)家很少能接觸到這方面知識(shí)?!?/p> Geoffrey Hinton:曾表示痛悔畢生工作

另一位 AI“教父”Geoffrey Hinton 博士也簽署了 Bengio 教授參與的聲明。

本月月初,有外媒報(bào)道稱, Geoffrey Hinton 辭去了在谷歌的工作,并警告這一技術(shù)領(lǐng)域的持續(xù)發(fā)展或?qū)砭薮箫L(fēng)險(xiǎn)。

Geoffrey Hinton 作為“三位 AI 教父”之一,與另外兩位合作伙伴共同獲得了 2018 年圖靈獎(jiǎng),旨在表彰他們?yōu)楫?dāng)前 AI 繁榮做出的基礎(chǔ)性貢獻(xiàn)。但現(xiàn)在的他卻對(duì)自己投入一生的研究感到遺憾。

根據(jù)《紐約時(shí)報(bào)》對(duì)他的采訪,Hinton 在辭去在谷歌的工作后,也終于可以暢談 AI 技術(shù)背后的風(fēng)險(xiǎn)了。已經(jīng)在谷歌工作十多年的 Hinton 表示,“我總在用這樣的借口安慰自己:哪怕我自己不做,其他人也會(huì)這樣做。但目前真的不知道要怎么防止壞蛋利用 AI 來作惡?!?/p>

虛假信息的傳播只是 Hinton 眼下想要強(qiáng)調(diào)的風(fēng)險(xiǎn)之一。從長遠(yuǎn)來看,他擔(dān)心 AI 會(huì)徹底消除一切需要大量記憶的工作,而隨著其逐步編寫并運(yùn)行構(gòu)成自身的代碼,AI 也許會(huì)最終取代人類。

Hinton 在采訪中指出,“其實(shí)不少人都相信,AI 實(shí)際上能夠變得比人類更聰明,但大多數(shù)人認(rèn)為這還很遙遠(yuǎn)。沒錯(cuò),我也曾經(jīng)覺得還很遙遠(yuǎn),沒準(zhǔn)要再過 30 年、50 年甚至更久。但現(xiàn)在,我顯然沒法再這么想了?!?/p>

在接受 BBC 采訪時(shí),他甚至提到 AI 聊天機(jī)器人已經(jīng)構(gòu)成“相當(dāng)可怕”的威脅?!皳?jù)我所知,目前的 IT 還不比我們聰明,但我相信它們很快就會(huì)超越人類。”

不一樣的聲音:Yann LeCun 對(duì) AI 發(fā)展比較樂觀

不過 AI 領(lǐng)域也有不一樣的聲音存在。

第三位“教父”Yann LeCun 與 Bengio 和 Hinton 共同憑借開創(chuàng)性貢獻(xiàn)獲得了圖靈獎(jiǎng),但他的態(tài)度比較樂觀,認(rèn)為 AI 毀滅人類的警告有點(diǎn)言過其實(shí)。

還有人覺得在務(wù)虛討論之前,應(yīng)當(dāng)先解決迫在眉睫的真問題。

AI 公司 Huggingface 研究科學(xué)家 Sasha Luccioni 博士認(rèn)為,社會(huì)應(yīng)該關(guān)注 AI 偏見、預(yù)測(cè)性執(zhí)法和聊天機(jī)器人傳播錯(cuò)誤信息等問題,她覺得這些都是“非常具體的現(xiàn)實(shí)危害”。

“我們應(yīng)當(dāng)關(guān)注這些問題,而不是深陷 AI 可能毀滅人類的假想泥潭?!?/p>

除了風(fēng)險(xiǎn),AI 也確實(shí)給人類社會(huì)帶來不少福祉。上周,AI 工具就發(fā)現(xiàn)了一種新型抗生素。而借助 AI 技術(shù)開發(fā)的微芯片,也讓一名癱瘓男子能在意念控制下正常行走。

但好消息再多,也無法抵消人們對(duì) AI 沖擊各國經(jīng)濟(jì)的深遠(yuǎn)擔(dān)憂。眾多企業(yè)已經(jīng)開始用 AI 工具取代人類員工,好萊塢編劇正就這個(gè)問題組織集體罷工。

Bengio 教授在談到 AI 現(xiàn)狀時(shí)認(rèn)為,“亡羊補(bǔ)牢,為時(shí)未晚。這就像應(yīng)對(duì)氣候變化問題一樣。我們向大氣排放了大量的碳,雖然不可能一夜之間就停止排放,但我們至少該認(rèn)真想想當(dāng)下能夠做點(diǎn)什么。”

參考鏈接:

https://www.bbc.com/news/technology-65760449?at_medium=RSS&at_campaign=KARANGA

https://arstechnica.com/information-technology/2023/05/openai-execs-warn-of-risk-of-extinction-from-artificial-intelligence-in-new-open-letter/

https://www.infoq.cn/article/Y9rIogQk8Sjt33bLDMHk

今日薦文


不該走的人正被逼走,RustConf粗暴撤換主講人事態(tài)升級(jí)引發(fā)多人出走,根源出在Rust領(lǐng)導(dǎo)小組不愿交權(quán)?

碾壓ChatGPT?Meta開源多語言大模型,可識(shí)別4000多種語言、錯(cuò)誤率僅為OpenAI產(chǎn)品的一半



OpenAI 創(chuàng)始人再簽聯(lián)名信,一句話聲明簡(jiǎn)短有力AI或引發(fā)滅絕風(fēng)險(xiǎn)的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國家法律
阿城市| 龙胜| 喀喇沁旗| 井研县| 柳河县| 怀集县| 扶余县| 利川市| 邻水| 洱源县| 阜新市| 宜州市| 湟中县| 交口县| 长春市| 永吉县| 罗甸县| 九寨沟县| 延津县| 凤冈县| 舞阳县| 从化市| 河西区| 基隆市| 鹿泉市| 新龙县| 浑源县| 凤翔县| 西丰县| 竹山县| 赤水市| 闽侯县| 方正县| 陕西省| 蒲江县| 嘉黎县| 资阳市| 保康县| 林口县| 龙门县| 吉木萨尔县|