關(guān)于英偉達(dá)黃仁勛專訪的幾點思考
在前段時間剛剛結(jié)束的2023年GTC大會之后,英偉達(dá)CEO黃仁勛(Jensen Huang)接受了知名分析師Ben Thompson的采訪,原文名為《An Interview with Nvidia CEO Jensen Huang About AI’s iPhone Moment》,筆者在通讀全文之后,將重點進(jìn)行了總結(jié)和解讀,供各位參考。
ChatGPT會給英偉達(dá)帶來什么影響
ChatGPT和生成式AI的特性
英偉達(dá)商業(yè)策略的轉(zhuǎn)變
業(yè)務(wù)策略和公司戰(zhàn)略的變化
關(guān)于DGX Cloud
關(guān)于英偉達(dá)與Oracle、Azure和谷歌合作
關(guān)于合作哲學(xué)&英偉達(dá)與初創(chuàng)企業(yè)的關(guān)系
Jensen Huang:
ChatGPT帶來什么影響?
首先,是ChatGPT帶來的影響:站在英偉達(dá)的角度,ChatGPT帶來的影響和變化有哪些?
如果我們往前看,在2023年2月英偉達(dá)的財報會議上,CEO黃仁勛的原話是這樣的:"無論當(dāng)時的具體觀點是什么,現(xiàn)在這些觀點,都已發(fā)生了巨大的變化。"
GPT-3已經(jīng)出來一段時間了,在此之前,ChatGPT的雛形包括WebGPT和InstructGPT,但是,正是ChatGPT的到來,徹底點燃了整個行業(yè)。
如何理解“ChatGPT出現(xiàn)點燃了整個行業(yè)”這句話?
所有用戶關(guān)注的關(guān)注點,主要集中于ChatGPT的易用性和解決問題的能力。
注意,這里的所有用戶,包括對計算機(jī)不甚了解的用戶,也包括計算機(jī)科學(xué)家,比較顯眼的主要在于ChatGPT的推理能力與解決問題的能力。于是乎,這里就出現(xiàn)了一些跡象:
首先:C端用戶開始關(guān)注ChatGPT
之后:云計算和每個軟件公司開始關(guān)注ChatGPT
再然后:創(chuàng)業(yè)者和風(fēng)險投資開始進(jìn)來這個賽道。
Jensen Huang:ChatGPT和生成式AI的特性
ChatGPT和生成式人工智能的特性:
一是ChatGPT的厲害之處在于,所有用戶接受人工智能這個事實的“拐點”提前到來了,因此,訓(xùn)練這件事本身的預(yù)算和優(yōu)先級也被調(diào)高,表現(xiàn)出來的就是(計算)需求上升的原因之一;
二是“編程”的定義,被擴(kuò)張了,更多的事能被自動化
對于計算平臺來說,無論是工作站、個人電腦、互聯(lián)網(wǎng)、云、移動云,在編程這件事上,本質(zhì)是相似的,在每一個平臺上,我們都在以不同的方式編程,從需求出發(fā),編寫不同的應(yīng)用程序。
不過工作站、個人PC和互聯(lián)網(wǎng)等云平臺的影響力(覆蓋面)完全不同。
計算機(jī)工作站可以覆蓋數(shù)十萬人;
個人PC可以覆蓋數(shù)億和數(shù)十億;
移動設(shè)備可以覆蓋數(shù)十億及以上;
如果從今天的應(yīng)用格局來看,AppStore里大概有500萬個應(yīng)用;
重要的網(wǎng)站大概有數(shù)十萬個;
那么,大型語言模型上會長出來多少個應(yīng)用?
我認(rèn)為這個數(shù)字將會是以數(shù)億級計量,所有人都可以自己編寫屬于自己的應(yīng)用。
這就等同于階段性的范式轉(zhuǎn)變:差異+拐點,這里將涌現(xiàn)全新的計算模式。
而這正是公司、個體和各個平臺目前正在面臨的變革和機(jī)遇。
Jensen Huang:英偉達(dá)商業(yè)策略的轉(zhuǎn)變
英偉達(dá)對ChatGPT的看法:在ChatGPT橫空出世之后,在商業(yè)上,英偉達(dá)有哪些與之前不同的策略?
首先,是要對市場需求快速做出反應(yīng),市場對算力的需求在加速。英偉達(dá)也會加強(qiáng)培訓(xùn),因為幾乎所有知名云服務(wù)提供商都已經(jīng)在研究大語言模型,現(xiàn)在大家也意識到,必須更快地進(jìn)入下一層次:不僅僅是研究方面,還有推理方面。要更快地訓(xùn)練這些模型,更快拿出來更大的模型,并且迅速開發(fā)支持模型,用于Fine-tuning、alignment 、guard railing和augmenting ,以及圍繞這些大型語言模型的所有支持模型。
第二,因為生成式模型的易用性,于是它被連接到微軟辦公室和谷歌doc,突然間,生成式人工智能與很大的應(yīng)用程序和網(wǎng)絡(luò)瀏覽器相連接,因此,推理需求迅速飆升。
所以我認(rèn)為這兩件事都在發(fā)生,需求的增加,交付的緊迫性,這兩件事都在同時發(fā)生。
Jensen Huang:
業(yè)務(wù)策略和公司戰(zhàn)略的變化
在ChatGPT出現(xiàn)之后,英偉達(dá)的策略還有什么變化?思考業(yè)務(wù)和戰(zhàn)略的角度有什么變化?
主要是推理(Inference)業(yè)務(wù),推理業(yè)務(wù)的規(guī)模已經(jīng)經(jīng)歷過步驟層面的功能,毫無疑問,現(xiàn)在正在做的推理類型,我們已經(jīng)看到,目前已經(jīng)有各種視頻的制作過程,應(yīng)用了生成式人工智能的功能,從而給視頻的背景增強(qiáng)效應(yīng),對主體進(jìn)行增強(qiáng),調(diào)光等等等等。所有這些生成式人工智能工作,全部都是在云端完成的。
拿RunwayML舉例子,它基本上是用生成式AI進(jìn)行電影級別質(zhì)量規(guī)模的視頻編輯,這就需要不同類型的GPU。
然后拿大語言模型來說,整個模型超過1750億個參數(shù),在大型語言模型推理中,每個Token的響應(yīng)時間真的很重要,比如說,如果我們處在這樣一個場景:無論是整在寫一封長信,或者在寫一個相對復(fù)雜的程序,人們更期待的是實時互動。如果一旦突然掉線,用戶的耐心就會受到挑戰(zhàn)。
Jensen Huang:
關(guān)于DGX Cloud
通過瀏覽器,每個企業(yè)都能即時接入 AI 超級計算機(jī),那么,英偉達(dá)推出DGX Cloud,是基于什么考量?
隨著當(dāng)前的算力需求不斷攀升,出現(xiàn)的需求是,企業(yè)均需要超級計算能力,但是對于很多不具備AI能力與團(tuán)隊搭配的企業(yè),又該怎么辦?
基于這樣的需求,英偉達(dá)推出DGX Cloud,DGX Cloud主要和微軟Azure、甲骨文Oracle OCI和谷歌云Google GCP合作,而DGX Cloud是一項月租服務(wù),這項服務(wù)可以為企業(yè)提供訓(xùn)練自己的生成式AI模型和其他應(yīng)用程序所需的超算能力,企業(yè)直接應(yīng)用這項服務(wù),能夠降低大型模型訓(xùn)練和開發(fā)時間。
Jensen Huang的原話是這么說的:
We’ve been very transparent about and very consistent about our desire to build a computing platform that’s available everywhere and this computing platform is built at data center scale.
我們沒藏著掖著,大家都希望英偉達(dá)的AI計算能夠在每一朵大云(數(shù)據(jù)中心)上面出現(xiàn)。
Today’s computers is not a PC, today’s computer is a data center, the data center is the computer and you have to orchestrate that entire fleet of computers inside the data centers as if it’s one.
雖然數(shù)據(jù)中心計算機(jī)很多,但它們并不是有機(jī)的整體,所以計算歸計算,管理歸管理,要分開,而通過軟件使其分開,好管理。(言外之意就是無論你的計算中心有多少臺機(jī)器,看起來都像只有一臺超大的)
That’s why they call it single pane of glass, it’s managing one computer and that’s why it has to be software-defined. That’s why you have to have a separation of the compute plane and the control plane.
這就是為什么它被稱之為“單一管理平臺”,而這個“單一管理平臺”管理的“這臺超大計算機(jī)”必須是“軟件定義的一大堆計算機(jī)的綜合”,必須把“Control”和“Compute”分開(說白話就是,調(diào)度的,和干活兒的分開)
All of those architectural reasons leads up to, basically, the data center is the computer. We build our entire system full stack, and then we build it end-to-end at data center scale but then when we go to market, we disaggregate this entire thing.
所以,折騰這些全棧設(shè)施(軟件和輔助硬件)就是為了讓每個數(shù)據(jù)中心(物理硬件)都能夠用上,變成一臺超大的機(jī)器,然后用戶來使用的時候,我們再切出一小塊來讓他用到
This is the miracle of what we do, we’re full stack, we’re data center scale, we work in multiple domains, we have quantum computing here, we have computational lithography there, we have computer graphics here and this architecture runs all of these different domains, in artificial intelligence and robotics and such and we operate from the cloud to the edge and we built it in a full system, vertically integrated, but when we go to market, we disaggregate everything and we integrate it into the world’s computing fabric.
意思就是:我們英偉達(dá)超厲害,我們啥都會,我們是全才,甚至還會客戶的領(lǐng)域,我們能橫切系統(tǒng),還能豎切系統(tǒng),你需要啥,我就切一塊給你。
Jensen: 關(guān)于英偉達(dá)與Oracle、Azure和谷歌合作
在英偉達(dá)與Oracle OCI合作的案例中,英偉達(dá)的團(tuán)隊與甲骨文架構(gòu)團(tuán)隊一起工作。共同去探討:“究竟什么是整合到甲骨文云架構(gòu)中的最佳方式",在這塊英偉達(dá)不會規(guī)定的很死,并不是說,英偉達(dá)提供了自己的系統(tǒng),甲骨文一個人就可以玩起來。
我們和甲骨文密切合作,主要是為了搞清楚——"在甲骨文的云架構(gòu)里,什么是高效的的架構(gòu),可以在英偉達(dá)整個技術(shù)堆棧中發(fā)揮最好的性能"。英偉達(dá)的整個技術(shù)堆棧必須以原生的方式運行,包括協(xié)調(diào)層,系統(tǒng)管理層或分布式計算層等等,所有這些都必須在本地運行,因此我們必須與云廠商密切合作,以確保他們的云和我們的軟件架構(gòu)能夠和諧地一起工作。
與Azure合作時:主要會考慮“到底什么是計算的最佳方式?如何能做到安全整合?如何能做到更優(yōu)的鏈接存儲?如何最好地托管它,使有很多私人數(shù)據(jù)安全問題和可能有工業(yè)法規(guī)問題的客戶能夠最好地管理它?"
因此,有相當(dāng)多的合作圍繞著為這些不同需求,進(jìn)行架構(gòu)的設(shè)計。
問題:那么,如果有客戶要使用DGX云,是否會選自己想要的云廠商?是否必須與甲骨文、Azure或谷歌云建立關(guān)系?還是由Nvidia來促成這種合作,去告訴Nvidia我們的需求,然后Nvidia會幫忙選擇云廠商?
Huang:這取決于你,用戶可以由英偉達(dá)來協(xié)助實施,也可以自己根據(jù)自己之前和云廠商的合作進(jìn)行部署。對Azure來說,DGX Cloud對企業(yè)的吸引力也可以之前的云基礎(chǔ)結(jié)合,那么無論是微軟Azure還是谷歌云,都可以在這里找到自己的生態(tài)位。
Jensen: 關(guān)于合作哲學(xué)&英偉達(dá)與初創(chuàng)企業(yè)的關(guān)系
問題:為什么沒有AWS?
我們和AWS會有很多其他方面的合作。作為英偉達(dá),我們希望以這種方式與所有人合作,這和我們與惠普、戴爾和聯(lián)想合作是一樣的,這些品牌,他們在英偉達(dá)每個平臺上的上市時間并不總是同時,但是我們的合作哲學(xué),是一致的。我們有大型團(tuán)隊與亞馬遜合作開發(fā)SageMaker。他們需要英偉達(dá)大型團(tuán)隊來加速SageMaker。
英偉達(dá)在做的事情,與終端用戶和開發(fā)者都進(jìn)行了極其深入的合作,和大量垂直領(lǐng)域合作(醫(yī)療保健、汽車,當(dāng)然還有大量人工智能初創(chuàng)企業(yè),大約有10000家AI初創(chuàng)企業(yè))如果拿視頻游戲行業(yè)舉例子,基本直接覆蓋幾乎所有的開發(fā)商。英偉達(dá)和幾乎所有的汽車公司都有直接合作,正在與幾乎所有的藥物研究公司合作,我們的合作伙伴,還包括臺積電和ASML。
后記By阿法兔
在整個采訪中,Jensen Huang還有一句話,讓我記憶深刻:
Notice the way I’ve explained everything so far is exactly that and there’s no inconsistency between celebrating the success of our partners, even if it’s in an abstraction layer where we are further below, versus in conserving our own energy to go work on things that only we should do and we can do, it’s just not a conflict to me. I’m really happy when AWS does well, I’m really happy when OpenAI does well and this is our attitude about our partners and ecosystem, whether they use CUDA or not, it just doesn’t matter to us. CUDA has great value to us, whether it has great value to somebody else or not, so what? The most important thing is that they’re able to do whatever it is they’re trying to do as easily as possible, as cost effectively as possible. If one of our partners is the best answer or if even somebody else is the best answer, so be it. We move on.
大概意思就是,英偉達(dá)會對合作伙伴的成功非常開心,也會專門保留自己的精力,去處理只有我們應(yīng)該做而且能夠做的事情。無論是當(dāng)AWS 還是 OpenAI ,他們做得好時,我也真的會很高興,而這也就是我們對合作伙伴和生態(tài)系統(tǒng)的態(tài)度,無論他們是否使用 CUDA,這對我們來說都不重要。CUDA 對英偉達(dá)具有重要價值,最重要的,所有人都可以通過CUDA能夠以盡可能簡單、盡可能低廉的成本實現(xiàn)大家的目標(biāo)。就算是如果別人有最好的方案,我們也為他們感到開心,但我們英偉達(dá),會持續(xù)前進(jìn)。