對(duì)話新壹科技CEO雷濤:AI領(lǐng)域有非常多的機(jī)會(huì)更好服務(wù)用戶

AIGC 潮水已來(lái)。或快或慢,它都將到達(dá)每個(gè)人身邊。AIGC 會(huì)取代我們的工作嗎?中文版 ChatGPT 什么時(shí)候會(huì)出現(xiàn)?技術(shù)、資本博弈暗流涌動(dòng)的背后,有哪些值得關(guān)注的入局者和前線故事?
知乎聯(lián)合多家優(yōu)秀媒體、個(gè)人作者,共創(chuàng)“AIGC 入局者”欄目,與你一起,關(guān)注那些卷入 AIGC 潮水的人。
本文獨(dú)家發(fā)布于知乎“AIGC 入局者”欄目。
作者丨李祥
如果一個(gè)應(yīng)用,能將一篇文章瞬間生成一段符合邏輯的視頻,將給視頻行業(yè)帶來(lái)多大的沖擊?
新壹科技推出的AIGC產(chǎn)品一幀秒創(chuàng),正應(yīng)文生視頻的需求而生。功能上,用戶只需要在一幀秒創(chuàng)輸入文案,就能一鍵生成相關(guān)視頻。比如,輸入一段關(guān)于宇宙起源的文章,就會(huì)生成一段3分鐘左右的科普視頻,里面涉及宇宙起源、宇宙演化、星系誕生等元素,還會(huì)由系統(tǒng)自動(dòng)配音講解,語(yǔ)言風(fēng)格類似抖音上最火的解說(shuō)類短視頻。



當(dāng)前,視頻內(nèi)容幾乎是網(wǎng)民的剛需,但還有大量有表達(dá)能力的創(chuàng)作者不會(huì)制作視頻,這制約了很多創(chuàng)意落地。AI大模型技術(shù)的進(jìn)步,讓機(jī)器能更好地理解人類語(yǔ)言。一幀秒創(chuàng)等工具的問世,讓文字創(chuàng)作者可以通過文字指令讓AI大模型快速匹配視頻資源,并自動(dòng)完成剪輯任務(wù),從而成為視頻創(chuàng)作者。
除文字生成視頻功能外,一幀秒創(chuàng)還能為創(chuàng)作者提供多模態(tài)生成服務(wù),包括文字?jǐn)U寫、文字轉(zhuǎn)語(yǔ)音、文生圖、圖文轉(zhuǎn)視頻等系列創(chuàng)作服務(wù),通過對(duì)文案、素材、AI語(yǔ)音、字幕等要素智能分析、解構(gòu),輔助創(chuàng)作者快速成片,實(shí)現(xiàn)零門檻產(chǎn)出視頻。
近日,知乎聯(lián)合鉛筆道,專訪新壹科技CEO雷濤。他認(rèn)為,從去年末興起的AIGC技術(shù)浪潮,會(huì)讓內(nèi)容行業(yè)或主動(dòng)或被動(dòng)地完成重新洗牌。在不久的將來(lái),AI會(huì)讓內(nèi)容數(shù)量指數(shù)級(jí)上升,屆時(shí)創(chuàng)意才是內(nèi)容行業(yè)競(jìng)爭(zhēng)的關(guān)鍵,而大廠也未必能在應(yīng)用端保持制霸。盡管現(xiàn)階段文生視頻的質(zhì)量仍不盡如人意,但未來(lái)已經(jīng)近在眼前。
以下是對(duì)話精華。
一、AIGC將顛覆現(xiàn)有視頻行業(yè)格局
鉛筆道:ChatGPT出現(xiàn),對(duì)內(nèi)容生產(chǎn)類產(chǎn)品產(chǎn)生了哪些影響?
雷濤:過去十多年,移動(dòng)互聯(lián)網(wǎng)行業(yè)基本是在一些很成熟的東西上修修補(bǔ)補(bǔ)。ChatGPT所代表的大模型技術(shù)跨越式發(fā)展,讓每一個(gè)具體應(yīng)用都看到了跟人工智能結(jié)合的機(jī)會(huì),這種結(jié)合可能帶來(lái)整個(gè)領(lǐng)域的洗牌。
在視頻領(lǐng)域,雖然目前來(lái)講,文字直接生成視頻的效果并不算好,案例遠(yuǎn)沒有達(dá)到能夠商用的水平。但大語(yǔ)言模型、文字生成圖片等技術(shù)進(jìn)步,已經(jīng)有比較成熟的應(yīng)用了,(圖片和語(yǔ)言)作為視頻的組件,客觀上促進(jìn)了AIGC在視頻行業(yè)的發(fā)展。
鉛筆道:你認(rèn)為AIGC的能力會(huì)給視頻行業(yè)帶來(lái)哪些顛覆性變革?
雷濤:早在2016年,視頻在整個(gè)互聯(lián)網(wǎng)中作為主要傳播形態(tài)的地位就確立了??梢哉f(shuō)視頻是一種剛需,但與此同時(shí),具備視頻剪輯能力的人畢竟是少數(shù)。很多用戶根本不知道Premiere(注:Adobe公司開發(fā)的視頻編輯軟件)。
這就像原先只有電視臺(tái)能通過視頻的方式制作內(nèi)容,后來(lái)隨著秒拍、小咖秀再到抖音等產(chǎn)品出現(xiàn),用戶可以通過自拍的方式發(fā)布內(nèi)容,讓視頻內(nèi)容數(shù)量呈幾何式上升,最終引爆短視頻行業(yè)。
而AI賦能視頻生產(chǎn),則是進(jìn)一步降低了視頻生產(chǎn)門檻,用戶可以更方便快捷地生產(chǎn)更高質(zhì)量的視頻,視頻行業(yè)的格局也可能由此再度改變。
鉛筆道:你提到文字直接生成視頻的效果并不理想,那現(xiàn)階段AI輔助視頻生產(chǎn)的思路是什么?
雷濤:整體而言還是用AI輔助GC(生產(chǎn)內(nèi)容)。目前我們的AI內(nèi)容生成平臺(tái)產(chǎn)品一幀秒創(chuàng),基本邏輯是通過AI加速文案與素材的匹配。
以往創(chuàng)作者寫完文案和腳本后,還需要花大量時(shí)間尋找、拼接合適的視頻資源。比如我想制作一個(gè)“細(xì)說(shuō)李白”的短視頻,那我在寫完文案后,還需要在全網(wǎng)篩選關(guān)于李白的圖片、形象、作品等素材,再把這些素材剪輯到一起,這些重復(fù)的搜索和篩選,本質(zhì)上全都是低效能的勞動(dòng)。再加上現(xiàn)如今互聯(lián)網(wǎng)資源的豐富程度,同類型視頻動(dòng)輒上萬(wàn)條,人力也很難匹配到最合適的。
通過AI大模型,只要兩三分鐘就能完成素材收集和整理工作。無(wú)論從產(chǎn)能還是素材匹配度上,都能將過去幾個(gè)人幾天的工作量,變成現(xiàn)在一個(gè)人幾分鐘的工作。
鉛筆道:內(nèi)容行業(yè)有聲音質(zhì)疑AIGC會(huì)產(chǎn)生版權(quán)問題,一幀秒創(chuàng)如何在保證內(nèi)容產(chǎn)量的同時(shí)避免版權(quán)問題?
雷濤:這個(gè)問題的確很棘手,有很多獨(dú)家視頻素材是無(wú)法商用的。所以我們采取的是“自有資源+外部資源”合作的方式。
首先新壹科技是一下科技(研發(fā)了秒拍、小咖秀)在元宇宙VR及人工智能領(lǐng)域探索的實(shí)體,而通過秒拍產(chǎn)品多年的積累,我們的視頻素材已經(jīng)積累了將近10億規(guī)模,我們將這些自有資源庫(kù)開放給了一幀秒創(chuàng)的用戶,免除他們的一些顧慮。
其次我們也在和一些版權(quán)素材庫(kù)協(xié)商,想將更多素材接入一幀秒創(chuàng),屆時(shí)用戶可以付費(fèi)購(gòu)買素材的使用權(quán),而價(jià)格會(huì)比在原素材平臺(tái)上購(gòu)買更加優(yōu)惠。當(dāng)然,AIGC的版權(quán)資源會(huì)是一個(gè)長(zhǎng)期問題,我們也希望找到更多版權(quán)方合作。
二、人工智能會(huì)不會(huì)“殺死”創(chuàng)造力?
鉛筆道:如果AIGC能讓內(nèi)容數(shù)量爆發(fā)性增長(zhǎng),你認(rèn)為未來(lái)內(nèi)容行業(yè)的核心競(jìng)爭(zhēng)點(diǎn)是什么?
雷濤:未來(lái)的核心競(jìng)爭(zhēng)點(diǎn)肯定還是創(chuàng)造力。這就像傳統(tǒng)媒體和自媒體的競(jìng)爭(zhēng),原先只有紙媒才可以在公眾渠道發(fā)聲,后來(lái)有了像微博、公眾號(hào)等平臺(tái)后,任何個(gè)人都可以注冊(cè)自媒體公司,然后內(nèi)容創(chuàng)作。但你可以很明顯感覺到,公眾號(hào)文章的質(zhì)量天差地別,這就是創(chuàng)造力的區(qū)別。
AI大模型可以通過進(jìn)一步降低生產(chǎn)門檻,讓更多人參與視頻創(chuàng)作,從而進(jìn)一步釋放創(chuàng)造力。
鉛筆道:也有人擔(dān)心AI會(huì)殺死創(chuàng)造力,畢竟有大模型了,很多工作都可以交給它。
雷濤:我更愿意把創(chuàng)造力分為兩個(gè)部分,一部分是創(chuàng)意形成的過程,就是你腦中突然有了一個(gè)天馬行空的idea;另一部分則是將創(chuàng)意落地,最終創(chuàng)作出內(nèi)容的過程。
就像你寫科技評(píng)論文章,你應(yīng)該花更多時(shí)間在輸出觀點(diǎn)、輸出干貨,而不是花大量時(shí)間在尋找文章配圖或短視頻,這是一種本末倒置。而在視頻生產(chǎn)中,恰恰是文案腳本容易寫,視頻素材整理很困難。所以一幀秒創(chuàng)實(shí)際上解決的是將創(chuàng)意落地的過程,幫助視頻創(chuàng)作者減少低效能的勞動(dòng),將自己的創(chuàng)意更快變成具體產(chǎn)品。
關(guān)于創(chuàng)造力,我認(rèn)為即便AIGC完全普及,能真正做好內(nèi)容創(chuàng)作的還是少數(shù)人。
以國(guó)外做AI文生圖的頭部企業(yè)Midjourney為例,他們的文生圖技術(shù)已經(jīng)相對(duì)成熟,最近做的那組“中國(guó)情侶”圖片,幾乎可以以假亂真,但真正能產(chǎn)出那么精美圖片的又有幾個(gè)?
鉛筆道:不同風(fēng)格的視頻對(duì)工具需求不盡相同,如何平衡用戶對(duì)產(chǎn)品通用性和個(gè)性化的需求?
雷濤:通用性和個(gè)性化需求反映在大模型上,其實(shí)就是數(shù)據(jù)的泛化程度和匹配精準(zhǔn)度。
所以首先我們盡可能多地在一幀秒創(chuàng)中加入更多素材量,秒拍將近10億級(jí)別的視頻素材是底子,然后對(duì)一些比較成熟的視頻創(chuàng)作者,以往就有私有素材庫(kù),基本是幾個(gè)T量級(jí)的常用資源放在硬盤里。一幀秒創(chuàng)支持創(chuàng)作者導(dǎo)入私有素材庫(kù),然后依托AI大模型完成結(jié)構(gòu)化分析,可以更加方便創(chuàng)作者調(diào)用。
如果以往沒有任何素材積累的創(chuàng)作者,大概率就是純小白用戶,對(duì)個(gè)性化需求會(huì)更低。一幀秒創(chuàng)是基于OpenAI及其它幾個(gè)開源大模型進(jìn)行了垂直訓(xùn)練,基本能保證現(xiàn)階段用戶的個(gè)性化需求。
鉛筆道:現(xiàn)在Open AI已經(jīng)推出GPT-4了,如何讓產(chǎn)品跟上技術(shù)迭代的速度?
雷濤:就像我之前提到的,一幀秒創(chuàng)是從21年末開始研發(fā)的產(chǎn)品,誰(shuí)都想象不到GPT-4會(huì)在一年多后就推出。
隨著更先進(jìn)的開源模型推出,我們自己的模型也在進(jìn)化,技術(shù)是可以迭代的。而且相對(duì)于國(guó)內(nèi)其他產(chǎn)品來(lái)講,首先一幀秒創(chuàng)的語(yǔ)言模型并不會(huì)比他們差。第二,在視頻這個(gè)垂直領(lǐng)域,我們甚至還有很多優(yōu)勢(shì)。某種層面上,我們跟百度的差別要遠(yuǎn)小于百度跟OpenAI差別。
鉛筆道:讓大模型匹配用戶視頻剪輯需求的難點(diǎn)主要有什么?
雷濤:主要還是語(yǔ)義的理解。因?yàn)樽鑫淖洲D(zhuǎn)視頻首先需要理解文字,比如用戶輸入一篇公眾號(hào)文章,一幀秒創(chuàng)就要理解這篇文章在講什么,是什么類型。然后分段,找出每一段的關(guān)鍵詞,并匹配合適的視頻素材。
但如果用戶隨便下個(gè)指令“我今天心情很好”,這句話沒有合理的關(guān)鍵詞,也沒有上下文,AI大模型就很難匹配合適的素材。這其實(shí)和真人攝影師類似,如果導(dǎo)演的指令不清晰、沒有邏輯性,視頻質(zhì)量怎么可能高?
當(dāng)然,當(dāng)我們付出大量人工學(xué)習(xí)的成本后,通過大量標(biāo)注,可以讓機(jī)器更好地理解人類語(yǔ)言背后的意思。這也是本輪AI大模型最讓人興奮的地方。但要實(shí)現(xiàn)完全不用人工參與的AIGC,還需要假以時(shí)日。
三、大廠訓(xùn)練大模型,小廠打磨應(yīng)用
鉛筆道:國(guó)內(nèi)外大廠都在嘗試將AGI(通用人工智能)與內(nèi)容生產(chǎn)結(jié)合,像新壹科技這樣的創(chuàng)業(yè)公司如何留在牌桌?
雷濤:先說(shuō)結(jié)論,我并不認(rèn)為AI大模型會(huì)是一個(gè)贏家通吃的賽道,大廠也不一定能制霸應(yīng)用端。
首先,大廠肯定要抓住行業(yè)顛覆性機(jī)會(huì)。無(wú)論是微軟、谷歌、Meta,還是國(guó)內(nèi)的百度、阿里、騰訊、字節(jié),他們的主戰(zhàn)場(chǎng)都在培訓(xùn)大模型,這是最燒錢,也最能形成技術(shù)壁壘的地方,大廠肯定要鋪大量資金、技術(shù)、人才到大模型上。
然后在應(yīng)用端,大廠一是不一定有那么強(qiáng)的動(dòng)力去做,二是對(duì)應(yīng)用端的理解不一定有創(chuàng)業(yè)公司深。比如新壹科技之所以能率先推出AI輔助視頻生產(chǎn)工具,是因?yàn)槲覀兲嵩缬^察到了用戶的痛點(diǎn),很多小白用戶希望進(jìn)一步降低視頻制作門檻。因此我們從21年年底就開始嘗試將AIGC的能力融入產(chǎn)品,比這波AI大模型風(fēng)潮要早不少。
鉛筆道:那你認(rèn)為AIGC創(chuàng)業(yè)公司與大廠相比,有哪些競(jìng)爭(zhēng)優(yōu)勢(shì)呢?
雷濤:我覺得我們和大廠大概率不是競(jìng)爭(zhēng)關(guān)系,而是合作關(guān)系。因?yàn)榇髲S肯定是要研發(fā)大模型的,如果大模型技術(shù)停滯不前,那么應(yīng)用端的迭代也無(wú)從談起。當(dāng)然,就目前的技術(shù)態(tài)勢(shì)來(lái)看,大模型技術(shù)肯定還會(huì)繼續(xù)進(jìn)步。而且我認(rèn)為,這波AGI浪潮中應(yīng)用端的機(jī)會(huì)不比大模型小。
這就體現(xiàn)了創(chuàng)業(yè)公司的靈活性。我們可以自由選擇跟哪家的大模型合作,可以從技術(shù)匹配度、市場(chǎng)人群、價(jià)格等多個(gè)因素綜合考慮,選出最優(yōu)解。但是舉個(gè)例子,假如A大廠要嘗試應(yīng)用端,那他肯定只能用自家大模型,而不會(huì)用B大廠的大模型,這也算大公司的難處吧。
鉛筆道:目前有在和國(guó)內(nèi)大模型廠商探討合作嗎?
雷濤:有的,雖然目前國(guó)內(nèi)大模型還處于混戰(zhàn)狀態(tài),但大模型終歸是要落地到應(yīng)用端。作為一款較為成熟的AI文生視頻產(chǎn)品,一幀秒創(chuàng)需要積極地跟用戶,跟C端市場(chǎng)產(chǎn)生連接。所以無(wú)論最后是百度,還是阿里、騰訊、字節(jié)等的大模型能跑出來(lái),從應(yīng)用角度來(lái)講,我們都可以積極接入。
因?yàn)閼?yīng)用端產(chǎn)品,更關(guān)注就是用戶端的反饋,誰(shuí)能更好地服務(wù)用戶,誰(shuí)就是真正有價(jià)值的。
鉛筆道:國(guó)外大廠Meta宣稱會(huì)將AIGC與元宇宙結(jié)合,似乎和新壹科技的業(yè)務(wù)有些相似?
雷濤:廣義上看,AIGC會(huì)是元宇宙的一個(gè)組成部分,因?yàn)榘丛钪娴氖澜缬^,里面不管是3D場(chǎng)景還是消費(fèi)的內(nèi)容,乃至NPC(非玩家角色),都肯定要通過AIGC的方式生產(chǎn)。因?yàn)閮?nèi)容量太大了,通過人工生產(chǎn)肯定無(wú)法完成。
但現(xiàn)階段,狹義的元宇宙還只是一個(gè)概念,不管是NFT還是VR,目前都還有很強(qiáng)的局限性,甚至根本沒有落地場(chǎng)景。而AIGC已經(jīng)從一個(gè)概念,真正走向了廣泛應(yīng)用?;贏I大模型,文生文、文生圖、文生視頻的產(chǎn)品,國(guó)內(nèi)外都在不斷出現(xiàn),所以AIGC的風(fēng)頭很快壓過了元宇宙。其實(shí)從長(zhǎng)期來(lái)看,AIGC和元宇宙還是有可能融合的。只是國(guó)內(nèi)市場(chǎng)有一點(diǎn)很不好,元宇宙熱的時(shí)候大家都蹭熱度,一旦熱度下降又唯恐避之不及。
鉛筆道:相比遙遠(yuǎn)的元宇宙,現(xiàn)階段一幀秒創(chuàng)或許更需要找到變現(xiàn)模式?
雷濤:確實(shí),相比于大廠的雄厚資金,創(chuàng)業(yè)公司的變現(xiàn)壓力更重。所以我們?yōu)橐粠雱?chuàng)制定的是“B端定制+C端付費(fèi)”的變現(xiàn)模式。
首先在B端,我們已經(jīng)觀察到有兩類公司可以嘗試定制。一類是許多自媒體都有制作講解類短視頻的需求,但又不想專門雇一個(gè)制作視頻的人,一幀秒創(chuàng)簡(jiǎn)單易用的產(chǎn)品特點(diǎn)正好切中他們的需求;另一類是營(yíng)銷類公司,比如做本地生活營(yíng)銷,會(huì)有大量制作短視頻的需求,一幀秒創(chuàng)的素材庫(kù)能大幅提升產(chǎn)量。而且我們經(jīng)過計(jì)算,一幀秒創(chuàng)每分鐘的視頻制作成本對(duì)企業(yè)來(lái)說(shuō)已經(jīng)非常劃算。
而C端付費(fèi)主要是AIGC熱潮興起后,更多用戶對(duì)這一塊業(yè)務(wù)感興趣,開始積極嘗試,讓我們看到了付費(fèi)的可能。我們現(xiàn)在推出了免費(fèi)版和用戶階梯付費(fèi)版,對(duì)于一些有制作視頻需求的個(gè)人視頻博主來(lái)說(shuō),也是有付費(fèi)意愿的。
【版權(quán)聲明】本作品的著作權(quán)等知識(shí)產(chǎn)權(quán)歸鉛筆道所有,知乎享有本作品信息網(wǎng)絡(luò)傳播權(quán),任何第三方未經(jīng)授權(quán),不得轉(zhuǎn)載。