GTC 2023 | 「皮衣刀客」黃仁勛暢談 AI Top 5,科學(xué)計算、生成式 AI、Omniverse 榜上

「Don’t Miss This Defining Moment in AI」,中文意為「切勿錯過 AI 的決定性時刻」。北京時間 2023 年 3 月 21 日 23:00,皮衣刀客黃教主在 GTC 2023 發(fā)表主題如上的 Keynote 演講,并稱「這將是我們迄今為止最重要的一次 GTC」,英偉達(dá)官方 Twitter 也放出了本屆 GTC 的 AI Wave Top 5,事實如何?一起來看看今年 Keynote 都有哪些重磅發(fā)布吧~

關(guān)鍵詞之一:生成式 AI
生成式 AI 技術(shù),提供學(xué)習(xí)數(shù)據(jù)的基礎(chǔ)模式和結(jié)構(gòu),生成新的內(nèi)容,例如圖像、音頻、代碼、文本、3D 模型等。專業(yè)的生成式人工智能工具可以提高創(chuàng)作者的生產(chǎn)力,讓對技術(shù)不太熟悉的用戶也能受益。GTC 2023 上宣布了 NVIDIA AI Foundations 云服務(wù)及 NVIDIA Piccasso。
AI 技術(shù)正在革命性地改變 3D 內(nèi)容創(chuàng)作,GTC 2023 上,黃仁勛宣布生成式 AI 領(lǐng)域新版本 Omniverse Audio2Face 應(yīng)用程序的到來。

Omniverse Audio2Face 應(yīng)用人工智能,讓 3D 藝術(shù)家通過音頻文件快速制作出逼真的面部動畫,避免了通常費時費力的手動過程。Audio2Face 現(xiàn)在可以預(yù)覽普通話中文語言支持,同時改進(jìn)了唇形同步質(zhì)量、更強大的多語言支持新的預(yù)訓(xùn)練模型。
第一代醫(yī)藥行業(yè)生成式 AI 超算系統(tǒng)問世
日本 Mitsui & Co. 宣布打造基于 NVIDIA DGX 的超算系統(tǒng) Tokyo-1。Tokyo-1 是全球首款針對醫(yī)藥行業(yè)的生成式 AI 超算系統(tǒng),將用于探索分子動力學(xué)模擬與生成式 AI 模型。該項目預(yù)計于 2023 年下半年上線,由 Mitsui & Co. 子公司 Xeureka 負(fù)責(zé)運營,Xeureka 希望借助 Tokyo-1 改變?nèi)毡局扑幮袠I(yè)領(lǐng)域長期以來面臨的藥物開發(fā)滯后等問題。
Tokyo-1 基于 NVIDIA DGX H100,第一期包括 16 個 NVIDIA DGX H100 系統(tǒng),每個系統(tǒng)配備 8 個 NVIDIA H100 Tensor Core GPU。后續(xù) Xeureka 還將持續(xù)擴(kuò)充系統(tǒng)規(guī)模,并提供日本相關(guān)產(chǎn)業(yè)客戶的節(jié)點連接能力,提供分子動力學(xué)模擬、大型語言模型訓(xùn)練、量子化學(xué)、潛在藥物創(chuàng)新分子結(jié)構(gòu)的 AI 生成等,同時 Tokyo-1 用戶還能透過 NVIDIA BioNeMo 提供藥物探索與服務(wù)。
關(guān)鍵詞之二:數(shù)字生物學(xué)
英偉達(dá)發(fā)布一套生成式 AI 云服務(wù),用于定制 AI 基礎(chǔ)模型,以加速蛋白質(zhì)及療法、基因組學(xué)、化學(xué)、生物學(xué)和分子動力學(xué)等領(lǐng)域的研究。
生成式 AI 模型可以快速識別潛在的藥物分子,在某些情況下還可以從零設(shè)計化合物或基于蛋白質(zhì)的治療方法。通過對小分子、蛋白質(zhì)、DNA 和 RNA 序列的大規(guī)模數(shù)據(jù)集進(jìn)行訓(xùn)練,這些模型可以預(yù)測蛋白質(zhì)的三維結(jié)構(gòu)以及分子與目標(biāo)蛋白質(zhì)對接的程度。

全新的 BioNeMo? 云服務(wù)針對 AI 模型訓(xùn)練和推理,加速藥物研發(fā)。它使得科研人員能夠在自有數(shù)據(jù)上對生成式 AI 應(yīng)用進(jìn)行微調(diào),并直接在瀏覽器中運行 AI 模型推理,或通過新的云端 API 輕松集成到現(xiàn)有應(yīng)用中。
BioNeMo 云服務(wù)包括預(yù)訓(xùn)練 AI 模型,有助于幫科研人員創(chuàng)建藥物研發(fā)的 AI Pipeline,目前已被 Evozyne 和 Insilico Medicine 等生物制藥公司用于藥物設(shè)計。
接入 BioNeMo 服務(wù)的新型生成式 AI 模型包括:
* MegaMolBART 生成式化學(xué)模型
* ESM1nv 蛋白質(zhì)語言模型
* OpenFold 蛋白質(zhì)結(jié)構(gòu)預(yù)測模型
* AlphaFold2 蛋白質(zhì)結(jié)構(gòu)預(yù)測模型
* DiffDock 用于分子對接的擴(kuò)散生成模型
* ESMFold 蛋白質(zhì)結(jié)構(gòu)預(yù)測模型
* ESM2 蛋白質(zhì)語言模型
* MoFlow 生成式化學(xué)模型
* ProtGPT-2 生成新蛋白質(zhì)序列的語言模型
關(guān)鍵詞之三:CV
CV-CUDA 是一個用于云端計算機(jī)視覺的開源 GPU 加速庫,旨在幫助企業(yè)在 GPU 上建立和擴(kuò)展端到端、基于 AI 的計算機(jī)視覺和圖像處理 Pipeline。

CV-CUDA 將預(yù)處理和后處理步驟從 CPU 轉(zhuǎn)移到 GPU,從而在單個 GPU 上處理 4 倍的 stream,處理相同的工作負(fù)載,它的成本只有云計算的四分之一。
CV-CUDA 庫為開發(fā)人員提供了 30 多種高性能的計算機(jī)視覺算法,包括本地 Python API、以及與 PyTorch、 TensorFlow2、 ONNX 和 TensorRT 等機(jī)器學(xué)習(xí)框架的 zero-copy 集成,從而提供更高的吞吐量、更低的計算成本以及與云端 AI 業(yè)務(wù)相比更少的碳足跡。
自 CV-CUDA alpha 版本發(fā)布以來,已有超過 500 家公司創(chuàng)建了超過 100 個用例。
關(guān)鍵詞之四:自主機(jī)器
2021 年,英偉達(dá)提出了 cuOpt,一個實時路線優(yōu)化軟件,為企業(yè)提供了適應(yīng)實時數(shù)據(jù)的能力。cuOpt 通過每秒分析數(shù)十億個可行移動,優(yōu)化交付路線。
cuOpt 現(xiàn)在是一個蓬勃發(fā)展的合作伙伴生態(tài)系統(tǒng)的中心,該生態(tài)系統(tǒng)包括系統(tǒng)集成商和服務(wù)提供商、物流和運輸軟件供應(yīng)商、優(yōu)化軟件專家和位置服務(wù)提供商。cuOpt 在 Li & Lim pickup and delivery benchmark (Li 和 Lim 提出的接貨和交付問題基準(zhǔn)測試集合中設(shè)定的基準(zhǔn)測試,用于衡量路線的效率 )中創(chuàng)造了三項記錄。
針對 Li & Lim 基準(zhǔn)測試,研究人員已經(jīng)在二十年前規(guī)劃出了最佳路線,發(fā)明了設(shè)置并重新設(shè)置世界上最著名的解決方案的算法,以前的獲獎?wù)邉t專注于對先前路線進(jìn)行小的調(diào)整。cuOpt創(chuàng)建的路線與以前的獲獎?wù)邉?chuàng)建的路線不同。cuOpt 提供的改進(jìn)比基準(zhǔn)測試上先前記錄的改進(jìn)高出 7.2 倍,比之前創(chuàng)紀(jì)錄的成果獲得的改進(jìn)高出 26.6 倍。
關(guān)鍵詞之五:對話式 AI
各行各業(yè)的公司都希望利用交互式 avatar 來增強數(shù)字體驗。但創(chuàng)建它們是一個復(fù)雜耗時的過程,需要應(yīng)用能看、聽、理解及與用戶交流先進(jìn)的人工智能模型。

為了簡化這個過程,英偉達(dá)通過 Omniverse Avatar Cloud Engine(ACE)為開發(fā)者提供實時的人工智能解決方案,這是一個云原生的微服務(wù)套件,用于交互式 avatar 的端到端開發(fā)。NVIDIA 正在不斷改進(jìn),為用戶提供所需的工具,輕松設(shè)計和部署從交互式聊天機(jī)器人到智能數(shù)字人類的各種 avatar。
AT&T 公司正計劃使用 Omniverse ACE 和 Tokkio AI avatar 工作流程來構(gòu)建、定制和部署用于客戶服務(wù)和員工服務(wù)臺的虛擬助理。與英偉達(dá)的服務(wù)交付合作伙伴之一 Quantiphi 合作,AT&T 正在開發(fā)互動 avatar,可以用當(dāng)?shù)卣Z言提供跨地區(qū)的全天候支持。這有助于該公司降低成本,同時為其全球員工提供更好的體驗。除了客戶服務(wù)外,AT&T 還計劃為公司的各種用例構(gòu)建和開發(fā)數(shù)字人。
本屆 GTC 2023 上,除了以上五大關(guān)鍵詞貫穿 Keynote ,值得關(guān)注的還有黃仁勛「在線帶貨 」的 Grace Superchip 超級芯片。
Grace CPU:為數(shù)據(jù)中心的節(jié)能計算鋪平道路
實際測試中,在主要數(shù)據(jù)中心 CPU 應(yīng)用程序的包絡(luò)相同的情況下,Grace CPU Superchip 比 x86 處理器性能高 2 倍,這表明數(shù)據(jù)中心可以處理 2 倍的高峰流量或削減一半的電費。
三大 CPU 創(chuàng)新
* 在單一裸晶 (Die) 中,Grace CPU 用 ultra-fast fabric 連接 72 Arm Neoverse V2 core ,在 fabric 帶寬中 sport 3.2TB/s,一個標(biāo)準(zhǔn)的吞吐。
* 用 NVIDIA NVLink-C2C 互連將其中兩個芯片連接到一個超級芯片 (superchip) 封裝中,提供 900GB/s 的帶寬。
* Grace CPU 是第一個使用服務(wù)器級 LPDDR5X 內(nèi)存的數(shù)據(jù)中心 CPU。這提供了高達(dá) 50% 的內(nèi)存帶寬,成本類似但功率是典型服務(wù)器內(nèi)存的 1/8,尺寸緊湊,密度是典型的基于卡的內(nèi)存設(shè)計的 2 倍。

測試發(fā)現(xiàn),與數(shù)據(jù)中心中使用相同功耗的領(lǐng)先 x86 CPU 相比,Grace CPU:
* 微服務(wù)的速度提高了 2.3 倍;
* 內(nèi)存密集型數(shù)據(jù)處理速度提高 2 倍;
* 計算流體力學(xué)速度提高了 1.9 倍。
英偉達(dá):AI 世界的引擎
從去年年底開始,ChatGPT 一經(jīng)推出就將生成式 AI、大語言模型推到了風(fēng)口浪尖,在黃仁勛看來,ChatGPT 開啟了 AI 的「iPhone Moment」,但在今天的 keynote 直播中,他也坦言「 生成式 AI 令人印象深刻的能力讓公司產(chǎn)生了一種緊迫感,需要重新構(gòu)想他們的產(chǎn)品和商業(yè)模式」,可以看到英偉達(dá)已經(jīng)從 AI 訓(xùn)練到部署,從半導(dǎo)體到軟件庫,從系統(tǒng)到云服務(wù)等方面開始進(jìn)行多維度突破。
目前,全球英偉達(dá)生態(tài)系統(tǒng)涵蓋 NVIDIA Inception 中的 400 萬開發(fā)人員、40,000 家公司和 14,000 家初創(chuàng)公司,或許正如 GTC 2023 前夕,黃仁勛在 CNBS 訪談中所說的,英偉達(dá)要成為這樣一家公司:
Because of what we do, we could make what is barely possible possible, or we could make something that is very energy consuming, very energy efficient, or we could turn something that cause a lot of money, and make it more affordable.