英偉達(dá) 120GB HBM2e 顯存版 Hopper H100 加速卡曝光,還有 ADLCE 工程卡
IT之家(問舟)
IT之家 9 月 26 日消息,英偉達(dá)此前推出了 Hopper H100 GPU,包括兩個(gè)版本,一個(gè)適用于 SXM5 和一個(gè)適用于 PCIe,顯存容量相同,均為 80 GB,但前者采用全新的 HBM3 標(biāo)準(zhǔn),而后者采用 HBM2e 標(biāo)準(zhǔn)。
現(xiàn)在根據(jù) s-ss.cc 的消息,NVIDIA 可能正在開發(fā)全新的 PCIe 版本的 Hopper H100 GPU。最重要的是,新顯卡可能不會配備 80 GB HBM2e,而是 120GB HBM2e 顯存。
?從下圖可以看到,他拿到了一款 ADLCE 的工程樣品卡,對于這張卡我們還沒有更進(jìn)一步的消息,不過 120GB 顯存的 H100 GPU 就已經(jīng)能夠讓人期待了。
新卡應(yīng)該跟之前的版本相同,包括滿血 GH100 GPU,16896 個(gè) CUDA,而且顯存帶寬將達(dá)到 3TB / S,和 SXM 接口版本的 H100 核心與性能一樣。
爆料者指出,這款 H100 120GB PCIE 版本的單精度性能與 SXM 版本是相同的,單精度浮點(diǎn)性能約為 60TFLOPS。
GH100 GPU 的完整規(guī)格如下:
8 個(gè) GPC,72 個(gè) TPC(9 個(gè) TPC / GPC),2 個(gè) SM / TPC,每個(gè)完整 GPU 144 個(gè) SM
每個(gè) SM 128 個(gè) FP32 CUDA 核心,每個(gè)完整 GPU 18432 個(gè) FP32 CUDA 核心
每個(gè) SM 4 個(gè)第四代 Tensor 核心,每個(gè)完整 GPU 576 個(gè)
6 個(gè) HBM3 或 HBM2e 堆棧,12 個(gè) 512 位內(nèi)存控制器
60 MB 二級緩存
另外關(guān)于 ADLCE 工程樣品卡,這應(yīng)該是 RTX4090 的 ES 工程樣品,但是 TDP 被限制在了 350W,所以單精度性能只有 60 多 TFLOPS。

IT之家了解到,H100 于 2022 年 4 月發(fā)布,由 800 億個(gè)晶體管組成,并采用了眾多開創(chuàng)性的技術(shù),包括強(qiáng)大的全新 Transformer 引擎和 NVIDIA NVLink 互連技術(shù),以加速最大規(guī)模的 AI 模型,如高級推薦系統(tǒng)和大型語言模型,并推動(dòng)對話式 AI 和藥物發(fā)現(xiàn)等領(lǐng)域的創(chuàng)新。

英偉達(dá)表示,H100 使企業(yè)能夠削減 AI 的部署成本,相較于上一代,在提供相同 AI 性能的情況下,可將能效提高 3.5 倍,總體擁有成本減少至 1/3,所使用的服務(wù)器節(jié)點(diǎn)數(shù)也減少至 1/5。
NVIDIA DGX H100 系統(tǒng)現(xiàn)在也已開始接受客戶預(yù)定。該系統(tǒng)包含 8 個(gè) H100 GPU,F(xiàn)P8 精度的峰值性能達(dá)到 32 PFlops。每個(gè) DGX 系統(tǒng)都包含 NVIDIA Base Command 和 NVIDIA AI Enterprise 軟件,可實(shí)現(xiàn)從單一節(jié)點(diǎn)到 NVIDIA DGX SuperPOD 的集群部署,為大型語言模型和其他大規(guī)模工作負(fù)載的高級 AI 開發(fā)工作提供支持。
全球領(lǐng)先的計(jì)算機(jī)制造商所提供的搭載 H100 的系統(tǒng)預(yù)計(jì)將在未來幾周內(nèi)發(fā)貨,到今年年底將有超過 50 款服務(wù)器型號面市,2023 年上半年還將有數(shù)十款型號面市。已在構(gòu)建系統(tǒng)的合作伙伴包括源訊(Atos)、思科、戴爾科技、富士通、技嘉科技、慧與、聯(lián)想和超微。