直播回顧 | 大語言模型發(fā)展與現(xiàn)狀

2023年6月29日18:30,由東北大學(xué)自然語言處理實(shí)驗(yàn)室主辦,小牛翻譯協(xié)辦的生成式大語言模型技術(shù)分享系列直播第五期順利舉行。本次報(bào)告由來自東北大學(xué)自然語言處理實(shí)驗(yàn)室的劉新宇博士,為大家?guī)砹恕洞笳Z言模型發(fā)展與現(xiàn)狀》分享。

在前幾期報(bào)告中了解Transformer、預(yù)訓(xùn)練模型等的相關(guān)基礎(chǔ)知識過后,從本期開始將正式進(jìn)入生成式大語言模型關(guān)鍵技術(shù)的分享,本次報(bào)告由劉新宇博士介紹“大語言模型發(fā)展與現(xiàn)狀”相關(guān)內(nèi)容,適用于初識大語言模型的新手小白。劉新宇博士從語言模型到大語言模型的發(fā)展歷程出發(fā),分別介紹了人工智能現(xiàn)狀、AGI、自然語言處理、大語言模型相比語言模型、預(yù)訓(xùn)練模型的特殊能力等。最后結(jié)合大語言模型和AGI探討大語言模型是否存在智能,并提出未來具有發(fā)展前景的研究方向。
在報(bào)告分享后的Q&A環(huán)節(jié),劉新宇博士與各平臺的網(wǎng)友就大語言模型相關(guān)技術(shù)問題進(jìn)行了廣泛討論,以下是本環(huán)節(jié)的問題和解答:
Q1:prompt 的工作原理是什么?
A1:其實(shí)prompt實(shí)際上它就是在引導(dǎo)模型在你給定的這個(gè)文本的基礎(chǔ)上繼續(xù)去生成。也就是說你給模型一個(gè)prompt,模型想做的事兒就是完成你這個(gè)prompt,讓它變成一句完整的、看起來更像人話的東西,但是它可能不太理解你prompt里面真正的含義是什么。當(dāng)然我們說今天是一個(gè)大型語言模型,它其實(shí)是可以理解這個(gè)其中的一些語義信息的。如果說到這個(gè)我們語言模型去建模,去生成這個(gè)過程的話,其實(shí)你給出的這些prompt實(shí)際上是模型去生成它基于的這種上文信息,實(shí)際上它是在這個(gè)條件概率的分母上的。你去采用不同的prompt,那模型會根據(jù)不同的分母上的值去進(jìn)行一個(gè)下文的預(yù)測,所以說會返回不同結(jié)果。
Q2:什么是大模型的涌現(xiàn)能力
A2:大模型的涌現(xiàn)能力它實(shí)際上不是指某一個(gè)特定的能力,它是一類能力。這個(gè)能力它指的是我們這個(gè)模型在一個(gè)很小規(guī)模的時(shí)候它不具備,但是模型規(guī)?;騾?shù)規(guī)模和訓(xùn)練數(shù)據(jù)在scale變得很大之后,它突然擁有的一類能力。那像目前像我們這種復(fù)雜的這個(gè)推理能力,包括像小樣本學(xué)習(xí)能力,其實(shí)都屬于大模型的涌現(xiàn)能力的一種。
Q3:AIGC與AGI之間有什么區(qū)別
A3:AIGC和AGI之間的區(qū)別,它們可以說是兩個(gè)不一樣的概念。AGI它本質(zhì)上指的是通用人工智能,其實(shí)我們這個(gè)片子花了不少的篇幅去介紹通用人工智能是什么,它是我們一個(gè)理想的一個(gè)人工智能的最終形態(tài),就是這個(gè)人工智能它可以和人一樣,與世界交互、與人類交互沒有任何障礙,可以從經(jīng)驗(yàn)中學(xué)習(xí)等等。那AIGC實(shí)際上指的是AI Generated Content,就是AI生成的內(nèi)容。AIGC它更像是一類技術(shù),甚至說是一個(gè)工作崗位。因?yàn)槲矣幸粋€(gè)在微軟實(shí)習(xí)的學(xué)弟,他實(shí)際上目前做的就是這個(gè)AIGC相關(guān)的工作,他做的事就是給我一段audio,就給我一段音頻,再給我一個(gè)人臉,然后我去生成這個(gè)人臉說這段音頻的一段視頻,就是其實(shí)大家也可以理解,就是一個(gè)AI生成內(nèi)容,AIGC。
Q4:大模型的指令微調(diào)是什么意思,作用是什么?
A4:大模型的指令微調(diào)實(shí)際上是這樣,就是大語言模型它想變成這個(gè)AI assistant,就是說我們說AI助手,它實(shí)際上需要經(jīng)過幾個(gè)階段,指令微調(diào)是其中之一。僅有預(yù)訓(xùn)練模型其實(shí)是不夠的,因?yàn)轭A(yù)訓(xùn)練語言模型它想做的事兒僅僅就是文檔補(bǔ)全,就是你給它什么,它繼續(xù)去補(bǔ)、去生成。那假如說它在訓(xùn)練數(shù)據(jù)中,它見過一個(gè)很多個(gè)問題并列的這種文檔,那你說我問你一個(gè)問題,它覺得這個(gè)我要做文檔,我就返回給你一堆問題,我去補(bǔ)全這個(gè)文檔,但是這肯定不是我們想要的。那我們AI assistant它需要完成人類的這個(gè)指令,那我們指令微調(diào)就是必不可少的一步。其實(shí)它和預(yù)訓(xùn)練階段可能沒有任何區(qū)別了,它的區(qū)別就是我指令微調(diào)的數(shù)據(jù)少、質(zhì)量高,而且是以這種指令的形式去進(jìn)行的。

Q5:人工智能的普及是否會造成技術(shù)依賴和人類技能退化。人類是否會喪失某些基本的技能和能力?
A5:實(shí)際上我覺得這種擔(dān)心可能不是很有必要的,因?yàn)閷?shí)際上在這個(gè)過去可能人類的生產(chǎn)力比較低的那個(gè)情況下,我們發(fā)明了這個(gè)工廠、生產(chǎn)車間,我們發(fā)明了這個(gè)拖拉機(jī),什么自動收割麥子的機(jī)器,它實(shí)際上都解放了很多人的生產(chǎn)力。那我們到今天發(fā)明了這種AI,或者說這種大型的語言模型,它實(shí)際上它可以很大程度地提升我們的一個(gè)日常工作效率,而不會使我們說相應(yīng)的一些能力發(fā)生退化。就拿我本人的一個(gè)體驗(yàn)來說,就是實(shí)際上現(xiàn)在使用ChatGPT已經(jīng)成為我日常生活工作中不可分割的一部分了。我在有一些問題的時(shí)候,我習(xí)慣性地先去ChatGPT上,我就問一問。但是我不會說我就是相信它的答案,我會想看的是,就是它會返回給我,提供給我什么思路,提供給我什么靈感,包括寫一些簡單的代碼、小demo,可能我自己寫需要二三十分鐘,但是我給ChatGPT它不到一分鐘就給我搞定了。所以我覺得這個(gè)工具它并不會使人類的什么能力退化,它反而是說,對我們?nèi)粘I钪蟹浅S袔椭?,可以讓我們這個(gè)工作和學(xué)習(xí)效率成倍提升的一個(gè)工具。
Q6:大型語言模型在實(shí)際應(yīng)用中可能會面臨哪些挑戰(zhàn)。
A6:大型語言模型在實(shí)際應(yīng)用中面臨的挑戰(zhàn),其實(shí)目前可能能夠說已經(jīng)實(shí)際應(yīng)用的像ChatGPT,其實(shí)大家已經(jīng)試了非常非常多了。其實(shí)大型語言模型它可能存在的一個(gè)問題就是它會胡謅,就是它其實(shí)還是說回來,就是它雖然說是具有一定的智能,但它本質(zhì)上還是在做語言模型的工作。說白了就是它的生成是基于它的知識去做的。那這個(gè)生成過程它可能會生成一些奇怪的內(nèi)容,生成一些反事實(shí)的一些答案,就是與事實(shí)不符的這個(gè)答案。我覺得這個(gè)可能是接下來大型語言模型在應(yīng)用過程中,它最大的一個(gè)問題之一。就是我們每一家公司想去推出自己的大型語言模型,那一定要解決的就是這個(gè)真實(shí)性檢驗(yàn),和它是否會生成一些危害言論,危害社會的這種言論,這個(gè)問題是需要解決的。
Q7:有沒有好用的中文基座模型推薦?
A7:中文基座可能目前市面上,我個(gè)人覺得還挺好的基座首先就是清華前兩天發(fā)表的ChatGLM2,其實(shí)我個(gè)人認(rèn)為它的性能還是很強(qiáng)的,也是體驗(yàn)了一波。然后包括像IDEA它們發(fā)布的封神榜姜子牙模型,我個(gè)人覺得也是挺不錯的。包括像復(fù)旦的MOSS以及貝殼BELLE,其實(shí)它們的中文能力都還挺好的,因?yàn)槎际俏覀冞@種國產(chǎn)化的大模型。那當(dāng)然我覺得如果我們目前想要選定一個(gè)基座,然后在它的基礎(chǔ)上去做這個(gè)SFT和RLHF的話,那我覺得我們還是應(yīng)該去自主地去針對這個(gè)目前這個(gè)國內(nèi)的這幾個(gè)模型去進(jìn)行一波評價(jià),在你真正關(guān)注的這個(gè)點(diǎn),你去評估一下。因?yàn)槟壳皩Υ笳Z言模型的評估,其實(shí)可以說它的體系還沒有那么的完善,每個(gè)人關(guān)注的點(diǎn)不同,那對于你關(guān)注的點(diǎn),我覺得你也可以去對這幾個(gè)模型做一個(gè)測評,并選擇它可能在這個(gè)方面更強(qiáng)的一個(gè)模型。
Q8:大型語言模型在未來的發(fā)展趨勢是什么?
A8:大型語言模型的未來發(fā)展趨勢,這個(gè)問題也非常好,就是實(shí)際上我覺得比較有趣的一個(gè)方向,其實(shí)就是LeCun他提出的那個(gè)世界模型的方向,因?yàn)榇笮驼Z言模型它本質(zhì)上可能我在做的還是語言建模,當(dāng)然現(xiàn)在GPT-4它可能是在做一個(gè)多模態(tài)。多模態(tài)的統(tǒng)一和多任務(wù)的統(tǒng)一,可能是這個(gè)大型語言模型它未來的一個(gè)發(fā)展趨勢,就是包括LeCun他提出的這種世界模型,就是我如何設(shè)計(jì)不同的這種模塊,然后讓它去就是基于大語言模型去做賦能也好,還是做一個(gè)調(diào)度也好,我去獲得一個(gè)更強(qiáng)的或者更高效的一個(gè)學(xué)習(xí)能力,那這個(gè)我覺得是比較有意思的一個(gè)研究方向。
Q9:預(yù)訓(xùn)練模型到ChatGPT之間的技術(shù)路線是怎樣的。
A9:預(yù)訓(xùn)練模型到ChatGPT之間技術(shù)路線,就是實(shí)際上我在這次報(bào)告中有簡單地提到,當(dāng)然在我們后續(xù)的幾期報(bào)告中,我們會重點(diǎn)地、詳細(xì)地挨個(gè)技術(shù)點(diǎn)去說明。那實(shí)際上這個(gè)技術(shù)路線主要就是預(yù)訓(xùn)練模型,我們首先經(jīng)過這個(gè)指令微調(diào),我們獲得這個(gè)SFT,然后在SFT之后,我們可能會經(jīng)過這個(gè)RLHF,就是基于人類反饋的強(qiáng)化學(xué)習(xí)。我們最終得到的這個(gè)模型,它可能更符合我們?nèi)粘5囊恍┦褂玫牧?xí)慣。就像我們這個(gè)片子里說的,可能我們在經(jīng)過這兩個(gè)階段之后的這個(gè)模型,它的一個(gè)效果是我們?nèi)祟惛矚g的。所以說其實(shí)主要的一個(gè)技術(shù)路線,就是我們預(yù)訓(xùn)練模型,然后經(jīng)過這個(gè)指令微調(diào),然后再經(jīng)過人類反饋的強(qiáng)化學(xué)習(xí),最后我們獲得一個(gè)最終的一個(gè)類似于ChatGPT的AI助手。

以上就是直播問答環(huán)節(jié)的全部內(nèi)容,下期報(bào)告《指令微調(diào)與上下文學(xué)習(xí)》將于7月13日18:30與您相見。更多關(guān)于報(bào)告的詳細(xì)內(nèi)容以及觀看直播回放可于小牛翻譯云平臺視頻號或機(jī)器翻譯學(xué)堂獲取。NiuTrans Talk,每期將邀請到不同領(lǐng)域的機(jī)器翻譯專家進(jìn)行講解,分享行業(yè)干貨知識,帶你走進(jìn)機(jī)器翻譯的世界。更多精彩內(nèi)容盡在小牛翻譯直播間,想了解更多有關(guān)機(jī)器翻譯的內(nèi)容,請關(guān)注機(jī)器翻譯學(xué)堂或小牛翻譯官方賬號,與小牛翻譯一起探討機(jī)器翻譯技術(shù)。
關(guān)于我們
專注于機(jī)器翻譯技術(shù)基礎(chǔ)研究50年,擁有百余人的機(jī)器翻譯產(chǎn)學(xué)研團(tuán)隊(duì),自主研發(fā)以中文為核心的NiuTrans機(jī)器翻譯系統(tǒng),支持388種語言隨心互譯。通過豐富的應(yīng)用與功能,為用戶提供機(jī)器翻譯服務(wù)全棧式解決方案,致力于為機(jī)器翻譯產(chǎn)業(yè)化應(yīng)用提供基礎(chǔ)平臺,幫助企業(yè)級用戶在國際業(yè)務(wù)中消除語言障礙。

hi,這里是小牛翻譯~
想要看到更多我們的文章,可以關(guān)注下
機(jī)器翻譯學(xué)堂(公號或網(wǎng)站)
筆芯~

往期精彩文章


