Computex2023:英偉達專題演講,GH200超級芯片投產(chǎn),ACE打造游戲AI模型


更快更強的鏟子
英偉達已成為了當(dāng)下最熱的金礦的鏟子的絕對供應(yīng)商,但是黃仁勛并沒有在金山上混吃等死,而是在帶領(lǐng)他的團隊,研發(fā)更快更強的掘金鏟。正如老黃在前天臺大畢業(yè)典禮上所言,無論如何,請保持奔跑。在今天的Computex 2023英偉達主題演講直播上,老黃親自宣布了GH200 Grace-Hopper超級芯片投入量產(chǎn)。


GH200 Grace-Hopper超級芯片將強大的H100 Tensor Core GPU和英偉達自研的Grace ARM CPU封裝在同一塊PCB上,使得兩者的互聯(lián)速度大大增加。

Grace CPU擁有72個ARM Neoverse V2 CPU,相比傳統(tǒng)X86處理器速度快了1.3倍,而在數(shù)據(jù)處理方面快了1.2倍,而做到這些僅需要X86處理器的六成功耗。在與H100封裝構(gòu)成Grace-Hopper超級芯片后,規(guī)模達到96HBM3和512GB LPDDR5X,芯片晶體管規(guī)模高達2000億個,通過NVLink C2C,CPU和GPU之間的吞吐量高達1TB/s。

Grace-Hopper GH200超級芯片還只是英偉達的磚頭,黃仁勛在演講上宣布推出DGX GH200超級計算機,這一超算致力于挑戰(zhàn)最苛刻的超大規(guī)模工作負(fù)載,并且谷歌、微軟、META這樣的大客戶已準(zhǔn)備好接受這一最先進的系統(tǒng)。

DGX GH200引入了第三代NVLink Switch互聯(lián)系統(tǒng),將256個GH200 GraceHopper超級芯片和144TB共享內(nèi)存連接成一個單元,這使得整個單元變成一個巨大復(fù)雜的GPU。相比上一代DGX A100,共享內(nèi)存暴增500倍。此外,上一代超過8個GPU的集群需要使用InfiniBand作為系統(tǒng)之間的互聯(lián),而DGX GH200則通過NVLink Switch拓?fù)錁?gòu)建了一個整體的超算集群。英偉達聲稱其提供的GPU到CPU的帶寬是上一代產(chǎn)品的10倍,CPU到GPU的帶寬是上一代產(chǎn)品的7倍。
DGX GH200首次將AI性能提升到了ExaFlops,也就是一百萬TFlops。英偉達也為自己構(gòu)建了一臺新的超級計算機NVIDIA Helios,這臺超算由四個DGX GH200系統(tǒng)構(gòu)成,用于英偉達自身的研發(fā)工作,總計1024個Grace Hopper超級芯片。
長達兩個小時的演講,大部分都是關(guān)于英偉達在AI內(nèi)容上的耕耘,這些大伙們都不咋感興趣,上次GTC2023那慘淡閱讀量我就明白了,不過他們還是帶來了游戲方面的一個技術(shù)。

英偉達宣布推出Avatar Cloud Engine(ACE)游戲開發(fā)版,為游戲中的NPC帶來智能,從而改變游戲體驗。

該服務(wù)基于英偉達Omniverse,由英偉達的NeMo大語言模型構(gòu)建,Riva識別語音以及文本轉(zhuǎn)語音,再通過Omniverse中的Audio2Face音軌轉(zhuǎn)面部表情,實時為NPC創(chuàng)建臉部動畫。Audio2Face搭配虛幻5中的Omniverse Connector,開發(fā)者可以直接將動畫添加到MetaHuman角色上。

英偉達還與參與計劃的初創(chuàng)公司Convai合作,發(fā)布了一段DEMO演示,玩家與拉面館老板互動,雖然老板只是個NPC,但是卻能在生成式AI的幫助下配合敘事背景,逼真回答玩家的自然語言問題。英偉達已經(jīng)拋開紅藍兩家太遠(yuǎn),它在AI領(lǐng)域的地位已經(jīng)成為了這一行業(yè)的基石,想要入局必然需要購買英偉達的產(chǎn)品。英偉達通過十幾年的CUDA生態(tài)構(gòu)建和AI產(chǎn)業(yè)布局,從游戲顯卡公司轉(zhuǎn)變成了頂級人工智能企業(yè),這和黃仁勛的領(lǐng)導(dǎo)理念是密不可分的。雖然我還是要罵他一句黃狗,但是他也是真的牛。
