最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

馬斯克帶頭簽署千人聯(lián)名信,緊急呼吁 AI 實驗室立即暫停研究

2023-03-30 09:47 作者:愛范兒  | 我要投稿

至今,我們已經(jīng)經(jīng)歷了多次數(shù)字革命,包括圖形界面的出現(xiàn)、互聯(lián)網(wǎng)的誕生以及移動互聯(lián)網(wǎng)的普及,但沒有一次科技變革像 GPT 模型引發(fā)的 AI 浪潮那樣引起如此廣泛的恐慌情緒。

一方面 AI 改變了人們工作和生活的方式,大大提高了效率;另一方面 AI 的運行和發(fā)展又充滿不確定性,觸發(fā)了人類對于未知事物的天然保護(hù)機(jī)制——恐懼。

今天,網(wǎng)絡(luò)上一封公開的聯(lián)名信爆火,該信呼吁所有的 AI 實驗立即暫停研究比 GPT-4 更先進(jìn)的 AI 模型,暫停時間至少 6 個月,為的就是把這些可怕的幻想扼殺在搖籃之中。

AI 的進(jìn)步速度實在過于驚人,但相關(guān)的監(jiān)管、審計手段卻遲遲沒有跟上,這也意味著沒有人能夠保證 AI 工具以及使用 AI 工具的過程中的安全性。

該聯(lián)名信已經(jīng)獲得了包括 2018 年圖靈獎得主 Yoshua Bengio、馬斯克、史蒂夫 · 沃茲尼亞克、Skype 聯(lián)合創(chuàng)始人、Pinterest 聯(lián)合創(chuàng)始人、Stability AI CEO 等多位知名人士的簽名支持,截稿前聯(lián)名人數(shù)已經(jīng)達(dá)到 1125 人。

公開信的原文如下:

人工智能具有與人類競爭的智能,這可能給社會和人類帶來深刻的風(fēng)險,這已經(jīng)通過大量研究 [1] 得到證實,并得到了頂級 AI 實驗室的認(rèn)可 [2]。正如廣泛認(rèn)可的阿西洛馬爾人工智能原則(Asilomar AI Principles)所指出的,先進(jìn)的 AI 可能代表地球生命歷史上的重大變革,因此應(yīng)該以相應(yīng)的關(guān)注和資源進(jìn)行規(guī)劃和管理。

不幸的是,即使在最近幾個月, AI 實驗室在開發(fā)和部署越來越強(qiáng)大的數(shù)字化思維方面陷入了失控的競爭,而沒有人能夠理解、預(yù)測或可靠地控制這些數(shù)字化思維,即使是它們的創(chuàng)造者也無法做到這一點。

現(xiàn)代 AI 系統(tǒng)現(xiàn)在已經(jīng)在通用任務(wù)方面具有與人類競爭的能力 [3],我們必須問自己:

  • 我們應(yīng)該讓機(jī)器充斥我們的信息渠道,傳播宣傳和謊言嗎?

  • 我們應(yīng)該將所有工作都自動化,包括那些令人滿足的工作嗎?

  • 我們應(yīng)該發(fā)展可能最終超過、取代我們的非人類思維嗎?

  • 我們應(yīng)該冒失控文明的風(fēng)險嗎?

這些決策不應(yīng)該由非選舉產(chǎn)生的科技領(lǐng)導(dǎo)人來負(fù)責(zé)。只有當(dāng)我們確信 AI 系統(tǒng)的影響是積極的,風(fēng)險是可控的,我們才應(yīng)該開發(fā)強(qiáng)大的 AI 系統(tǒng)。這種信心必須得到充分的理由,并隨著系統(tǒng)潛在影響的增大而增強(qiáng)。OpenAI 最近關(guān)于人工智能的聲明指出:「在某個時候,可能需要在開始訓(xùn)練未來系統(tǒng)之前獲得獨立審查,對于最先進(jìn)的努力,需要同意限制用于創(chuàng)建新模型的計算增長速度。」我們同意?,F(xiàn)在就是那個時刻。

因此,我們呼吁所有 AI 實驗室立即暫停至少 6 個月的時間,不要訓(xùn)練比 GPT-4 更強(qiáng)大的 AI 系統(tǒng)。這個暫停應(yīng)該是公開和可驗證的,并包括所有關(guān)鍵參與者。如果無法迅速實施這樣的暫停,政府應(yīng)該介入并實行一個暫禁令。

AI 實驗室和獨立專家應(yīng)該利用這個暫停時間共同制定和實施一套共享的先進(jìn) AI 設(shè)計和開發(fā)安全協(xié)議,這些協(xié)議應(yīng)該由獨立的外部專家嚴(yán)格審核和監(jiān)督。

這些協(xié)議應(yīng)確保遵守它們的系統(tǒng)在合理懷疑范圍之外是安全的 [4]。這并不意味著暫停 AI 發(fā)展,而只是從不斷邁向更大、不可預(yù)測的黑箱模型及其突現(xiàn)能力的危險競賽中退一步。

AI 研究和開發(fā)應(yīng)該重點放在提高現(xiàn)有強(qiáng)大、先進(jìn)系統(tǒng)的準(zhǔn)確性、安全性、可解釋性、透明度、魯棒性、對齊、可信度和忠誠度。

與此同時,AI 開發(fā)者必須與政策制定者合作,大力加速 AI 治理體系的發(fā)展。這些至少應(yīng)包括:

  • 專門負(fù)責(zé) AI 的新的、有能力的監(jiān)管機(jī)構(gòu);

  • 對高能力 AI 系統(tǒng)和大型計算能力池的監(jiān)督和跟蹤;

  • 用于區(qū)分真實與合成內(nèi)容、跟蹤模型泄漏的溯源和水印系統(tǒng);

  • 健全的審計和認(rèn)證生態(tài)系統(tǒng);對 AI 造成的損害承擔(dān)責(zé)任;

  • 技術(shù) AI 安全研究的充足公共資金;

  • 應(yīng)對 AI 引起的巨大經(jīng)濟(jì)和政治變革(特別是對民主制度的影響)的資深機(jī)構(gòu)。

人類可以在 AI 的幫助下享受繁榮的未來。在成功創(chuàng)造出強(qiáng)大的 AI 系統(tǒng)之后,我們現(xiàn)在可以享受一個「AI 盛夏」,在其中我們收獲回報,將這些系統(tǒng)明確地用于造福所有人,并讓社會有機(jī)會適應(yīng)。

在面臨可能對社會造成災(zāi)難性影響的其他技術(shù)上,社會已經(jīng)按下了暫停鍵 [5]。在這里,我們也可以這樣做。讓我們享受一個漫長的 AI 盛夏,而不是毫無準(zhǔn)備地沖向秋天。

參考信息:

[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big???. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems “function appropriately and do not pose unreasonable safety risk”.
[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

在這份公開信里,附上的簽名表或許要比信的內(nèi)容本身要精彩,你可以在這里找到很多熟悉的名字,每一個簽名都表達(dá)了簽名者對于 AI 的強(qiáng)烈懷疑態(tài)度。

不過,有網(wǎng)友發(fā)現(xiàn)這些簽名也不一定完全可信,因為在列表中出現(xiàn)了 OpenAI CEO Sam Altman(我封我自己?)和電影《疾速追殺》男主角 John Wick 的名字,具體的真實性還有待考究。

馬斯克帶頭簽署千人聯(lián)名信,緊急呼吁 AI 實驗室立即暫停研究的評論 (共 條)

分享到微博請遵守國家法律
娱乐| 宜兰市| 团风县| 平江县| 彭水| 桓台县| 彭泽县| 英德市| 万年县| 克拉玛依市| 革吉县| 库尔勒市| 永康市| 南充市| 昔阳县| 晋中市| 汤原县| 榆社县| 嘉鱼县| 六盘水市| 平陆县| 延吉市| 冀州市| 庆城县| 宜丰县| 蓬安县| 都匀市| 延川县| 穆棱市| 宿州市| 安福县| 峡江县| 元阳县| 伊川县| 维西| 靖边县| 陆河县| 旬阳县| 聊城市| 邵东县| 河南省|