最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

TensorRT8.6 計算機視覺模型部署與加速教程

2023-06-30 11:11 作者:bili_48219728313  | 我要投稿

TensorRT8.6 計算機視覺模型部署與加速教程

學(xué)習(xí)地址1:https://pan.baidu.com/s/1TrrCln2FAx4x11larCcXaA 提取碼: yzfc

學(xué)習(xí)地址2:https://share.weiyun.com/tXVACNni 密碼:6qc6k7


TensorRT8.6 計算機視覺模型部署與加速教程分享,2023新課,視頻+代碼+數(shù)據(jù)下載!


1、什么的TensorRT

TensorRT是nvidia家的一款高性能深度學(xué)習(xí)推理SDK。此SDK包含深度學(xué)習(xí)推理優(yōu)化器和運行環(huán)境,可為深度學(xué)習(xí)推理應(yīng)用提供低延遲和高吞吐量。在推理過程中,基于TensorRT的應(yīng)用程序比僅僅使用CPU作為平臺的應(yīng)用程序要快40倍。


2、cuda、cudnn和tensorrt的關(guān)系

CUDA是NVIDIA推出的用于自家GPU的并行計算框架,也就是說CUDA只能在NVIDIA的GPU上運行,而且只有當(dāng)要解決的計算問題是可以大量并行計算的時候才能發(fā)揮CUDA的作用。CUDA的主要作用是連接GPU 和 應(yīng)用程序,方便用戶通過 CUDA 的 API 調(diào)度 GPU 進行計算。


cuDNN(CUDA Deep Neural Network library):是NVIDIA打造的針對深度神經(jīng)網(wǎng)絡(luò)的加速庫,是一個用于深層神經(jīng)網(wǎng)絡(luò)的GPU加速庫。它能將模型訓(xùn)練的計算優(yōu)化之后,再通過 CUDA 調(diào)用 GPU 進行運算.


當(dāng)然你也可直接使用 CUDA,而不通過 cuDNN ,但運算效率會低好多。因為你的模型訓(xùn)練計算沒有優(yōu)化。


TensorRT是英偉達針對自家平臺做的加速包,只負責(zé)模型的推理(inference)過程,一般不用TensorRT來訓(xùn)練模型的,而是用于部署時加速模型運行速度。


3、TensorRT部署

TensorRT 只需要知道網(wǎng)絡(luò)的結(jié)構(gòu)和參數(shù)即可,它支持三種轉(zhuǎn)換入口:

TF-TRT,要求是 TensorFlow 模型

ONNX 模型格式

使用 TensorRT API 手動把模型搭起來,然后把參數(shù)加載進去


找到TensorRT的下載地址,我這邊選擇的是TensorRT8,TensorRT支持以下幾種方式安裝,分別是deb,tar,rpm。我這邊的系統(tǒng)是Ubuntu 22.04,CUDA版本是11.6,選擇的安裝方式是tar進行安裝。

關(guān)于tar的安裝方式,可以參考Nvidia官方文檔中關(guān)于tar的部分。NVIDIA Deep Learning TensorRT Documentation關(guān)于tar的安裝方式,可以參考Nvidia官方文檔中關(guān)于tar的部分。


所以整個邏輯就是:

把你的模型導(dǎo)出成 ONNX 格式。

把 ONNX 格式模型輸入給 TensorRT,并指定優(yōu)化參數(shù)。

使用 TensorRT 優(yōu)化得到 TensorRT Engine。

使用 TensorRT Engine 進行 inference。


TensorRT8.6 計算機視覺模型部署與加速教程的評論 (共 條)

分享到微博請遵守國家法律
宕昌县| 安多县| 天水市| 邛崃市| 南岸区| 吕梁市| 肥东县| 宁晋县| 交口县| 台东县| 昌宁县| 万州区| 株洲县| 漠河县| 荣昌县| 邹平县| 新安县| 兴城市| 兴和县| 汝州市| 仙居县| 武邑县| 平原县| 灵宝市| 青川县| 根河市| 吴忠市| 涪陵区| 花莲县| 临沂市| 自治县| 云林县| 牟定县| 墨脱县| 金门县| 东平县| 石柱| 平舆县| 郑州市| 芦山县| 东丰县|