夏季更新,秋季發(fā)布:使用Ryzen AI軟件平臺(tái)推動(dòng)AI開(kāi)發(fā)
在過(guò)去的幾年里,人工智能已經(jīng)從科幻小說(shuō)領(lǐng)域發(fā)展到部署在一系列不同的系統(tǒng)和軟件應(yīng)用程序中。在許多情況下,這些應(yīng)用程序在云中,或者在大型計(jì)算系統(tǒng)上運(yùn)行為佳。AMD?則旨在通過(guò)Ryzen AI和AMD XDNA架構(gòu)將先進(jìn)的人工智能處理引入本地端PC,擴(kuò)大人工智能的可接入性和人工智能軟件的開(kāi)發(fā)。
將人工智能工作負(fù)載從云端轉(zhuǎn)移到本地硬件可以減少延遲,有助于將敏感數(shù)據(jù)排除在云端之外,并且與排隊(duì)等待使用基于云的服務(wù)相比,可以加快處理速度。部分銳龍?7000系列移動(dòng)處理器內(nèi)置的銳龍人工智能引擎提供了一個(gè)專(zhuān)用的片上加速器來(lái)運(yùn)行這些工作負(fù)載,但我們還沒(méi)有太多探討關(guān)于此的軟件方面問(wèn)題。
Ryzen AI軟件平臺(tái)將于今年晚些時(shí)候全面推出,它將為開(kāi)發(fā)人員提供將AI添加到現(xiàn)有應(yīng)用程序所需的工具,并創(chuàng)建全新的程序,以新的、令人興奮的方式利用這一新興領(lǐng)域。
我們?cè)?月份首次公開(kāi)展示了這一軟件,提供了開(kāi)發(fā)人員可以試用的demo和代碼樣本。今年夏天,我們通過(guò)臨時(shí)版本推動(dòng)了這一進(jìn)程,增加了對(duì)運(yùn)行在IPU上的新操作符的支持,并提供了對(duì)ONNX、PyTorch和TensorFlow模型的量化支持。如果您打算開(kāi)始使用,請(qǐng)?jiān)L問(wèn)Ryzen AI軟件文檔頁(yè)面。
當(dāng)完整版Ryzen AI軟件平臺(tái)在今年晚些時(shí)候首次亮相時(shí),這些早期預(yù)覽和有限的開(kāi)發(fā)合作伙伴將擴(kuò)展為對(duì)AI開(kāi)發(fā)者和相關(guān)生態(tài)系統(tǒng)的更廣泛支持。未來(lái)的版本將支持更多在AMD XDNA上運(yùn)行的操作。ONNXRT Execution Provider?(EP)對(duì)Vitis AI執(zhí)行提供程序提供上游支持,將根據(jù)工作負(fù)載的特性自動(dòng)決定是在CPU上還是在AMD XDNA AI引擎上調(diào)度工作負(fù)載。

開(kāi)發(fā)人員可以采用PT、TF和ONNX格式的訓(xùn)練模型,使用AMD Vitis AI Quantizer或者M(jìn)icrosoft Olive Quantizer將這些模型量化為INT8,并使用帶有Vitis AI Execution Provider的ONNX Runtime進(jìn)行部署。前者將對(duì)代碼進(jìn)行分區(qū)和編譯,以運(yùn)行在AMD XDNA AI引擎或CPU上。
今年晚些時(shí)候,AMD將發(fā)布更多的工具鏈、庫(kù)和指南,以簡(jiǎn)化人工智能開(kāi)發(fā)。這些都是我們?cè)诟鱾€(gè)層面簡(jiǎn)化人工智能戰(zhàn)略的一部分,從訓(xùn)練模型到在由Ryzen AI驅(qū)動(dòng)的系統(tǒng)上對(duì)其進(jìn)行本地部署。我們還計(jì)劃增加對(duì)Generative AI模型的支持。
AMD對(duì)Ryzen AI軟件平臺(tái)的目標(biāo)是盡可能縮小硬件首次亮相和終端用戶(hù)軟件可用性之間的差距,讓程序員和終端用戶(hù)即使在這個(gè)相對(duì)初級(jí)的開(kāi)發(fā)階段也能看到AI處理的好處。今年夏天的臨時(shí)發(fā)布以及AMD將在今年晚些時(shí)候提供的擴(kuò)展功能,將加快人工智能生態(tài)系統(tǒng)的開(kāi)發(fā),并使開(kāi)發(fā)者受益于這種新型處理能力。