最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

GPT-4的研究路徑?jīng)]有前途?Yann LeCun給自回歸判了死刑

2023-06-10 01:28 作者:ChatGPT開(kāi)講啦  | 我要投稿

機(jī)器之心報(bào)道

機(jī)器之心編輯部

Yann LeCun 這個(gè)觀點(diǎn)的確有些大膽。

「從現(xiàn)在起 5 年內(nèi),沒(méi)有哪個(gè)頭腦正常的人會(huì)使用自回歸模型?!棺罱?,圖靈獎(jiǎng)得主 Yann LeCun 給一場(chǎng)辯論做了個(gè)特別的開(kāi)場(chǎng)。而他口中的自回歸,正是當(dāng)前爆紅的 GPT 家族模型所依賴(lài)的學(xué)習(xí)范式。


當(dāng)然,被 Yann LeCun 指出問(wèn)題的不只是自回歸模型。在他看來(lái),當(dāng)前整個(gè)的機(jī)器學(xué)習(xí)領(lǐng)域都面臨巨大挑戰(zhàn)。

這場(chǎng)辯論的主題為「Do large language models need sensory grounding for meaning and understanding ?」,是近期舉辦的「The Philosophy of Deep Learning」會(huì)議的一部分。會(huì)議從哲學(xué)角度探討了人工智能研究的當(dāng)前問(wèn)題,尤其是深度人工神經(jīng)網(wǎng)絡(luò)領(lǐng)域的近期工作。其目的是將正在思考這些系統(tǒng)的哲學(xué)家和科學(xué)家聚集在一起,以便更好地了解這些模型的能力、局限性以及它們與人類(lèi)認(rèn)知的關(guān)系。

根據(jù)辯論 PPT 來(lái)看,Yann LeCun 延續(xù)了他一貫的犀利風(fēng)格,直言不諱地指出「Machine Learning sucks!」「Auto-Regressive Generative Models Suck!」最后話題自然是回到「世界模型」。在這篇文章中,我們根據(jù) PPT 梳理了 Yann LeCun 的核心觀點(diǎn)。

Yann LeCun 核心觀點(diǎn)

Machine Learning sucks!

「Machine Learning sucks!(機(jī)器學(xué)習(xí)糟透了)」Yann LeCun 把這個(gè)小標(biāo)題放在了 PPT 的開(kāi)頭。不過(guò),他還補(bǔ)充了一句:與人類(lèi)和動(dòng)物相比。

機(jī)器學(xué)習(xí)有什么問(wèn)題?LeCun 分情況列舉了幾項(xiàng):

  • 監(jiān)督學(xué)習(xí)(SL)需要大量的標(biāo)注樣本;

  • 強(qiáng)化學(xué)習(xí)(RL)需要大量的試驗(yàn);

  • 自監(jiān)督學(xué)習(xí)(SSL)需要大量的未標(biāo)記樣本。

而且,當(dāng)前大部分基于機(jī)器學(xué)習(xí)的 AI 系統(tǒng)都會(huì)犯非常愚蠢的錯(cuò)誤,不會(huì)推理(reason),也不會(huì)規(guī)劃(plan)。

相比之下,人和動(dòng)物能做的事情就多了很多,包括:

  • 理解世界是如何運(yùn)作的;

  • 能預(yù)測(cè)自己行為的后果;

  • 可以進(jìn)行無(wú)限多步驟的推理鏈;

  • 能將復(fù)雜的任務(wù)分解成一系列的子任務(wù)來(lái)規(guī)劃;

更重要的是,人和動(dòng)物是有常識(shí)的,而當(dāng)前的機(jī)器所具備的常識(shí)相對(duì)膚淺。


自回歸大型語(yǔ)言模型沒(méi)有前途

在以上列舉的三種學(xué)習(xí)范式中,Yann LeCun 重點(diǎn)將自監(jiān)督學(xué)習(xí)拎了出來(lái)。

首先可以看到的是,自監(jiān)督學(xué)習(xí)已經(jīng)成為當(dāng)前主流的學(xué)習(xí)范式,用 LeCun 的話說(shuō)就是「Self-Supervised Learning has taken over the world」。近幾年大火的文本、圖像的理解和生成大模型大都采用了這種學(xué)習(xí)范式。

在自監(jiān)督學(xué)習(xí)中,以 GPT 家族為代表的自回歸大型語(yǔ)言模型(簡(jiǎn)稱(chēng) AR-LLM)更是呈現(xiàn)越來(lái)越熱門(mén)的趨勢(shì)。這些模型的原理是根據(jù)上文或者下文來(lái)預(yù)測(cè)后一個(gè) token(此處的 token 可以是單詞,也可以是圖像塊或語(yǔ)音片段)。我們熟悉的 LLaMA (FAIR)、ChatGPT (OpenAI) 等模型都屬于自回歸模型。

但在 LeCun 看來(lái),這類(lèi)模型是沒(méi)有前途的(Auto-Regressive LLMs are doomed)。因?yàn)樗鼈冸m然表現(xiàn)驚人,但很多問(wèn)題難以解決,包括事實(shí)錯(cuò)誤、邏輯錯(cuò)誤、前后矛盾、推理有限、容易生成有害內(nèi)容等。重要的是,這類(lèi)模型并不了解這個(gè)世界底層的事實(shí)(underlying reality)。


從技術(shù)角度分析,假設(shè) e 是任意生成的 token 可能將我們帶離正確答案集的概率,那么長(zhǎng)度為 n 的答案最終為正確答案的概率就是 P (correct) = (1-e)^n。按照這個(gè)算法,錯(cuò)誤會(huì)不斷積累,而正確性則呈指數(shù)級(jí)下降。當(dāng)然,我們可以通過(guò)將 e 變小來(lái)緩解這個(gè)問(wèn)題(通過(guò)訓(xùn)練),但無(wú)法完全消除,Yann LeCun 解釋說(shuō)。他認(rèn)為,要解決這個(gè)問(wèn)題,我們需要在保持模型流暢性的同時(shí),讓 LLM 不再進(jìn)行自回歸。



LeCun 認(rèn)為有前途的方向:世界模型

當(dāng)前風(fēng)頭正勁的 GPT 類(lèi)模型沒(méi)有前途,那什么有前途呢?在 LeCun 看來(lái),這個(gè)答案是:世界模型。

這些年來(lái),LeCun 一直在強(qiáng)調(diào),與人和動(dòng)物相比,當(dāng)前的這些大型語(yǔ)言模型在學(xué)習(xí)方面是非常低效的:一個(gè)從沒(méi)有開(kāi)過(guò)車(chē)的青少年可以在 20 小時(shí)之內(nèi)學(xué)會(huì)駕駛,但最好的自動(dòng)駕駛系統(tǒng)卻需要數(shù)百萬(wàn)或數(shù)十億的標(biāo)記數(shù)據(jù),或在虛擬環(huán)境中進(jìn)行數(shù)百萬(wàn)次強(qiáng)化學(xué)習(xí)試驗(yàn)。即使費(fèi)這么大力,它們也無(wú)法獲得像人類(lèi)一樣可靠的駕駛能力。


所以,擺在當(dāng)前機(jī)器學(xué)習(xí)研究者面前的有三大挑戰(zhàn):一是學(xué)習(xí)世界的表征和預(yù)測(cè)模型;二是學(xué)習(xí)推理(LeCun 提到的 System 2 相關(guān)討論參見(jiàn)

UCL 汪軍教授報(bào)告

);三是學(xué)習(xí)計(jì)劃復(fù)雜的動(dòng)作序列。


基于這些問(wèn)題,LeCun 提出了構(gòu)建「世界」模型的想法,并在一篇題為《A path towards autonomous machine intelligence》的論文中進(jìn)行了詳細(xì)闡述。

具體來(lái)說(shuō),他想要構(gòu)建一個(gè)能夠進(jìn)行推理和規(guī)劃的認(rèn)知架構(gòu)。這個(gè)架構(gòu)由 6 個(gè)獨(dú)立的模塊組成:

  • 配置器(Configurator)模塊;

  • 感知模塊(Perception module);

  • 世界模型(World model);

  • 成本模塊(Cost module);

  • actor 模塊;

  • 短期記憶模塊(Short-term memory module)。


這些模塊的具體信息可以參見(jiàn)機(jī)器之心之前的文章《圖靈獎(jiǎng)獲得者 Yann LeCun:未來(lái)幾十年 AI 研究的最大挑戰(zhàn)是「預(yù)測(cè)世界模型」》。

Yann LeCun 還在 PPT 中闡述了之前論文里提到的一些細(xì)節(jié)。




如何構(gòu)建、訓(xùn)練世界模型?

在 LeCun 看來(lái),未來(lái)幾十年阻礙人工智能發(fā)展的真正障礙是為世界模型設(shè)計(jì)架構(gòu)以及訓(xùn)練范式。

訓(xùn)練世界模型是自監(jiān)督學(xué)習(xí)(SSL)中的一個(gè)典型例子,其基本思想是模式補(bǔ)全。對(duì)未來(lái)輸入(或暫時(shí)未觀察到的輸入)的預(yù)測(cè)是模式補(bǔ)全的一個(gè)特例。


如何構(gòu)建、訓(xùn)練世界模型?需要看到的是,世界只能部分地預(yù)測(cè)。首先,問(wèn)題是如何表征預(yù)測(cè)中的不確定性。

那么,一個(gè)預(yù)測(cè)模型如何能代表多種預(yù)測(cè)?

概率模型在連續(xù)域中是難以實(shí)現(xiàn)的,而生成式模型必須預(yù)測(cè)世界的每一個(gè)細(xì)節(jié)。

基于此,LeCun 給出了一種解決方案:聯(lián)合嵌入預(yù)測(cè)架構(gòu)(Joint-Embedding Predictive Architecture,JEPA)。

JEPA 不是生成式的,因?yàn)樗荒茌p易地用于從 x 預(yù)測(cè) y。它僅捕獲 x 和 y 之間的依賴(lài)關(guān)系,而不顯式生成 y 的預(yù)測(cè)。


通用 JEPA。

如上圖所示,在這種架構(gòu)中,x 代表過(guò)去和當(dāng)前觀察到的,y 代表未來(lái),a 代表 action,z 代表未知的潛在變量,D()代表預(yù)測(cè)成本,C()代表替代成本。JEPA 從代表過(guò)去和現(xiàn)在的 S_x 的表征中預(yù)測(cè)一個(gè)代表未來(lái)的 S_y 的表征。


生成式架構(gòu)會(huì)預(yù)測(cè) y 的所有的細(xì)節(jié),包括不相關(guān)的;而 JEPA 會(huì)預(yù)測(cè) y 的抽象表征。




在這種情況下,LeCun 認(rèn)為有五種思路是需要「徹底拋棄」的:

  • 放棄生成式模型,支持聯(lián)合嵌入架構(gòu);

  • 放棄自回歸式生成;

  • 放棄概率模型,支持能量模型;

  • 放棄對(duì)比式方法,支持正則化方法;

  • 放棄強(qiáng)化學(xué)習(xí),支持模型預(yù)測(cè)控制。

他的建議是,只有在計(jì)劃不能產(chǎn)生預(yù)測(cè)結(jié)果時(shí)才使用 RL,以調(diào)整世界模型或 critic。

與能量模型一樣,可以使用對(duì)比方法訓(xùn)練 JEPA。但是,對(duì)比方法在高維空間中效率很低,所以更適合用非對(duì)比方法來(lái)訓(xùn)練它們。在 JEPA 的情況下,可以通過(guò)四個(gè)標(biāo)準(zhǔn)來(lái)完成,如下圖所示:1. 最大化 s_x 關(guān)于 x 的信息量;2. 最大化 s_y 關(guān)于 y 的信息量;3. 使 s_y 容易從 s_x 中預(yù)測(cè);4. 最小化用于預(yù)測(cè)潛在變量 z 的信息含量。


下圖是多級(jí)、多尺度下世界狀態(tài)預(yù)測(cè)的可能架構(gòu)。變量 x_0, x_1, x_2 表示一系列觀察值。第一級(jí)網(wǎng)絡(luò)表示為 JEPA-1,使用低級(jí)表征執(zhí)行短期預(yù)測(cè)。第二級(jí)網(wǎng)絡(luò) JEPA-2 使用高級(jí)表征進(jìn)行長(zhǎng)期預(yù)測(cè)。研究者可以設(shè)想這種類(lèi)型的架構(gòu)有許多層,可能會(huì)使用卷積和其他模塊,并使用級(jí)之間的時(shí)間池來(lái)粗粒度的表示和執(zhí)行長(zhǎng)期的預(yù)測(cè)。使用 JEPA 的任何非對(duì)比方法,可以進(jìn)行 level-wise 或全局的訓(xùn)練。


分層規(guī)劃比較困難,幾乎沒(méi)有解決方案,大多數(shù)都需要預(yù)先定義動(dòng)作的中間詞匯。下圖是不確定情況下的分層規(guī)劃階段:


不確定情況下的分層規(guī)劃階段。


邁向自主式 AI 系統(tǒng)的步驟都有哪些?LeCun 也給出了自己的想法:

1、自監(jiān)督學(xué)習(xí)

  • 學(xué)習(xí)世界的表征

  • 學(xué)習(xí)世界的預(yù)測(cè)模型

2、處理預(yù)測(cè)中的不確定性

  • 聯(lián)合嵌入的預(yù)測(cè)架構(gòu)

  • 能量模型框架

3、從觀察中學(xué)習(xí)世界模型

  • 像動(dòng)物和人類(lèi)嬰兒一樣?

4、推理和規(guī)劃

  • 與基于梯度的學(xué)習(xí)兼容

  • 沒(méi)有符號(hào),沒(méi)有邏輯→向量和連續(xù)函數(shù)

其他的一些猜想包括:


  • 預(yù)測(cè)是智能的本質(zhì):學(xué)習(xí)世界的預(yù)測(cè)模型是常識(shí)的基礎(chǔ)

  • 幾乎所有的東西都是通過(guò)自監(jiān)督學(xué)習(xí)得來(lái)的:低層次的特征、空間、物體、物理學(xué)、抽象表征...;幾乎沒(méi)有什么是通過(guò)強(qiáng)化、監(jiān)督或模仿學(xué)習(xí)的

  • 推理 = 模擬 / 預(yù)測(cè) + 目標(biāo)的優(yōu)化:在計(jì)算上比自回歸生成更強(qiáng)大。

  • H-JEPA 與非對(duì)比性訓(xùn)練就是這樣的:概率生成模型和對(duì)比方法是注定要失敗的。

  • 內(nèi)在成本和架構(gòu)驅(qū)動(dòng)行為并決定學(xué)習(xí)的內(nèi)容

  • 情感是自主智能的必要條件:批評(píng)者或世界模型對(duì)結(jié)果的預(yù)期 + 內(nèi)在的成本。



GPT-4的研究路徑?jīng)]有前途?Yann LeCun給自回歸判了死刑的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
库伦旗| 永宁县| 思南县| 江城| 华坪县| 遵义县| 达拉特旗| 高雄县| 金门县| 霍林郭勒市| 石泉县| 临夏市| 巴塘县| 炉霍县| 衡阳县| 镇江市| 海伦市| 集安市| 鄄城县| 青岛市| 财经| 扬州市| 孙吴县| 黄陵县| 苍溪县| 温州市| 毕节市| 清苑县| 长白| 平果县| 准格尔旗| 项城市| 延长县| 庄浪县| 安陆市| 临沧市| 黎城县| 德阳市| 揭阳市| 当雄县| 湟源县|