AIGC深度行業(yè)報(bào)告:新一輪內(nèi)容生產(chǎn)力革命的起點(diǎn)
報(bào)告出品/作者:國(guó)海證券、姚蕾、方博云
以下為報(bào)告原文節(jié)選
------
1.1 AIGC連續(xù)破圈:AI繪畫/ChatGPT相繼破圈
? AI繪畫作品獲獎(jiǎng)。2022年8月,在美國(guó)科羅拉多州舉辦的新興數(shù)字藝術(shù)家競(jìng)賽中,《太空歌劇院》獲得“數(shù)字藝術(shù)/數(shù)字修飾照片”類別一等獎(jiǎng)。參賽者沒有繪畫基礎(chǔ),利用AI工具M(jìn)idjourney創(chuàng)作。
? ChatGPT于2022年11月30日推出,5天后用戶破百萬,兩個(gè)月后月活用戶突破1億,成為史上用戶增長(zhǎng)速度最快的消費(fèi)級(jí)應(yīng)用程序。
? 風(fēng)投及產(chǎn)業(yè)資本涌入AIGC。
? 2021年開始,風(fēng)投對(duì)AIGC的投資金額金額出現(xiàn)爆發(fā)式增長(zhǎng),2022年超20億美元。主打AI生成文字的Jasper.ai于2022年10月完成1.25億美元A輪融資,估值達(dá)15億美元。AI視覺藝術(shù)創(chuàng)業(yè)公司Stability.ai獲1.01億美元種子輪融資,投后估值達(dá)10億美元。
? 據(jù)美國(guó)財(cái)經(jīng)媒體Semafor報(bào)道,微軟預(yù)計(jì)向ChatGPT的開發(fā)者OpenAI投資100億美元,OpenAI投后估值將高達(dá)290億美元。
1.2 AIGC定義:新的內(nèi)容生成方式、基于人工智能的技術(shù)集合
? AIGC(AI Generated Content)即利用人工智能技術(shù)自動(dòng)生成內(nèi)容,受制于AI技術(shù)成熟度,目前AI仍為內(nèi)容制作的輔助型角色(AIUGC),待技術(shù)突破,AI可真正作為內(nèi)容創(chuàng)作者(AIGC)。 AIGC是技術(shù)集合,基于生成對(duì)抗網(wǎng)絡(luò)GAN、大型預(yù)訓(xùn)練模型等人工智能技術(shù),通過已有數(shù)據(jù)尋找規(guī)律,并通過適當(dāng)?shù)姆夯芰ι上嚓P(guān)內(nèi)容的技術(shù)集合。
? 相關(guān)叫法:合成式媒體(Synthetic Media),即基于AI生成的文字、圖像、音頻等;Gartner提出的生成式AI(Generative AI),即由人工智能自動(dòng)生成新的編程、內(nèi)容或商業(yè)活動(dòng),讓文字、音樂、圖像、視頻、場(chǎng)景等都可由AI算法自動(dòng)生成。
? 從PGC到UGC,從UGC到AIGC。Web1.0時(shí)代“只讀”模式催生出“PGC”;Web2.0時(shí)代,社交媒體興起,人與人通過網(wǎng)絡(luò)交互,催生出以用戶生產(chǎn)和分享內(nèi)容的“UGC”模式;Web3.0時(shí)代,內(nèi)容消費(fèi)需求進(jìn)一步增長(zhǎng),個(gè)性化需求凸顯,“AIGC”將成為重要的新內(nèi)容生成方式。
1.2 AIGC定義:機(jī)器對(duì)信息認(rèn)知分三階段,從學(xué)習(xí)到超越經(jīng)驗(yàn)
? 機(jī)器對(duì)信息的認(rèn)知處于第一或第二階段。人在遇到新問題時(shí),會(huì)通過以往類似經(jīng)歷總結(jié)規(guī)律,并將新的問題套用到規(guī)律中,以推測(cè)可能的結(jié)果。相應(yīng)地,機(jī)器學(xué)習(xí)基于對(duì)歷史數(shù)據(jù)的歸納和學(xué)習(xí),構(gòu)建出事件模型,并將合適的新數(shù)據(jù)輸入到相應(yīng)的模型來預(yù)測(cè)未來。人類能夠超越觀察達(dá)到干預(yù)及想象階段,而對(duì)于AI來說,目前還處于第一或第二階段,一些復(fù)雜的信息還沒辦法處理,人類需要將其簡(jiǎn)化后再投喂給機(jī)器處理。
? UGC為AIGC提供了發(fā)展的數(shù)據(jù)基礎(chǔ),AIGC滿足更個(gè)性化的內(nèi)容消費(fèi)需求。
? 用戶不再滿足于專業(yè)團(tuán)隊(duì)和用戶創(chuàng)造,對(duì)內(nèi)容質(zhì)量要求更高,AI在提高內(nèi)容生產(chǎn)效率、豐富內(nèi)容多樣性及提供更加動(dòng)態(tài)且可交互的內(nèi)容上大有可為。
? UGC生成的規(guī)?;瘍?nèi)容,創(chuàng)造了大量學(xué)習(xí)素材,幫助AI實(shí)現(xiàn)從學(xué)習(xí)經(jīng)驗(yàn)到超越并重構(gòu)已有經(jīng)驗(yàn)的飛躍性轉(zhuǎn)變。
1.3 AIGC為何爆發(fā)?數(shù)據(jù)、算法、算力共振
? AIGC發(fā)展核心三要素:數(shù)據(jù)、算力、算法。
? 算法持續(xù)迭代。2017年推出的Transformer架構(gòu)的并行訓(xùn)練優(yōu)勢(shì)奠定了大模型訓(xùn)練的基礎(chǔ),GPT為代表的預(yù)訓(xùn)練模型,通過使用無標(biāo)注數(shù)據(jù)預(yù)訓(xùn)練及微調(diào),緩解了標(biāo)注數(shù)據(jù)不足的問題,并不斷提升參數(shù)量級(jí)及模型通用性,ChatGPT在此基礎(chǔ)上加入了利用人類反饋強(qiáng)化學(xué)習(xí)的訓(xùn)練方法。擴(kuò)散模型取代GAN成為圖像生成領(lǐng)域的主流模型,CLIP模型推動(dòng)跨模態(tài)生成技術(shù)的發(fā)展。
? 模型商業(yè)化及開源釋放創(chuàng)造力。GPT3的商業(yè)化及CLIP及Stable Diffusion模型的開源推動(dòng)文本生成、文生圖產(chǎn)品化浪潮。
1.3 AIGC算法發(fā)展歷程:早期受制于算法、算力瓶頸
1.3 AIGC算法發(fā)展歷程:模型持續(xù)迭代
1.3 AIGC算法發(fā)展歷程:從模型到應(yīng)用
1.3 AIGC算法發(fā)展歷程:OpenAI VS Google
? OpenAI:非盈利性轉(zhuǎn)向封頂盈利性公司,估值達(dá)290億美金。
? 2015年由馬斯克等人創(chuàng)立的非盈利人工智能研究公司,啟動(dòng)資金10億美金,成立初衷是與其它機(jī)構(gòu)合作進(jìn)行AI相關(guān)研究,并開放研究成果以促進(jìn)AI技術(shù)發(fā)展,防止壟斷。
? 核心團(tuán)隊(duì)為CEO Sam Altman、Greg Brockman、IIya Sutskever,大都技術(shù)出身,在通用AI領(lǐng)域經(jīng)驗(yàn)豐富。
? 2019年宣布從“非盈利”性質(zhì)過度到“封頂盈利性”,之后獲微軟10億美元戰(zhàn)略投資,并開啟與微軟在產(chǎn)品上的合作。
? 據(jù)美國(guó)財(cái)經(jīng)媒體Semafor報(bào)道,微軟預(yù)計(jì)向ChatGPT的開發(fā)者OpenAI投資100億美元,OpenAI投后估值將高達(dá)290億美元。
1.3 AIGC算法發(fā)展歷程:OpenAI推動(dòng)AI算法模型發(fā)展
1.3 AIGC算法發(fā)展歷程:OpenAI攜手微軟
? OpenAI攜手微軟,獲得資金支持,落地場(chǎng)景,借力微軟云計(jì)算領(lǐng)域布局。
? 資金+算力:2019年7月,OpenAI 接受了微軟10億美元的戰(zhàn)略投資,同時(shí)將把微軟的Azure作為其獨(dú)家云計(jì)算供應(yīng)商;2021年,微軟加注投資,具體金額未公布;2023年,微軟預(yù)計(jì)向OpenAI再投資100億美元,在滿足首批投資者收回初始資本后,微軟將獲得OpenAI75%利潤(rùn),直到收回投資。
? 業(yè)務(wù)協(xié)作:2021年,微軟推出了Azure OpenAI服務(wù)預(yù)覽;2022年,微軟將DALL-E2模型集成到了Azure OpenAI、Microsoft Designer、Bing Image Creator中。2023年1月,Azure OpenAI服務(wù)正式發(fā)布,企業(yè)可以申請(qǐng)?jiān)L問包括GPT-3.5、Codex和DALL-E2等AI模型,之后還可能通過Azure OpenAI服務(wù)訪問ChatGPT。2023年2月,微軟推出ChatGPT支持的最新版本Bing搜索引擎與Edge瀏覽器,增加聊天寫作功能。此外,微軟計(jì)劃將ChatGPT引入Office產(chǎn)品中,進(jìn)一步提升市場(chǎng)份額。
1.3 AIGC算法發(fā)展歷程:谷歌持續(xù)重注AIGC研究
? 2023年2月2日,谷歌研究院等提出了一種視頻生成新模型——Dreamix,受到了AI作圖UniTune的啟發(fā),將文本條件視頻擴(kuò)散模型(video diffusion model, VDM)應(yīng)用于視頻編輯。核心是通過兩種主要思路使文本條件VDM保持對(duì)輸入視頻的高保真度:(1)不使用純?cè)肼曌鳛槟P统跏蓟?,而是使用原始視頻的降級(jí)版本,通過縮小尺寸和添加噪聲僅保留低時(shí)空信息;(2)通過微調(diào)原始視頻上的生成模型來進(jìn)一步提升對(duì)原始視頻保真度。微調(diào)確保模型了解原始視頻的高分辨率屬性,對(duì)輸入視頻的簡(jiǎn)單微調(diào)會(huì)促成相對(duì)較低的運(yùn)動(dòng)可編輯性,這是因?yàn)槟P蛯W(xué)會(huì)了更傾向于原始運(yùn)動(dòng)而不是遵循文本prompt。
1.3 AIGC算法發(fā)展歷程:谷歌持續(xù)重注AIGC研究
1.3 AIGC算法發(fā)展歷程:你追我趕,持續(xù)迭代
--------------------------
報(bào)告摘錄結(jié)束 更多內(nèi)容請(qǐng)閱讀報(bào)告原文
每日研選深度報(bào)告導(dǎo)讀,敬請(qǐng)關(guān)注:報(bào)告派
--------------------------
報(bào)告合集專題一覽 X 由【報(bào)告派】定期整理更新
(特別說明:本文來源于公開資料,摘錄內(nèi)容僅供參考,不構(gòu)成任何投資建議,如需使用請(qǐng)參閱報(bào)告原文。)