SFFAI 98 模型架構(gòu)設(shè)計(jì)專題
會(huì)議簡(jiǎn)介

如何設(shè)計(jì)一個(gè)高性能且實(shí)用的網(wǎng)絡(luò)架構(gòu)是一項(xiàng)有趣且有重大意義的研究問題。本期我們邀請(qǐng)到了來(lái)自清華大學(xué)的丁霄漢同學(xué),介紹他設(shè)計(jì)的一種VGG式單路極簡(jiǎn)卷積網(wǎng)絡(luò)架構(gòu),這種架構(gòu)實(shí)現(xiàn)簡(jiǎn)單、速度快、性能高,可以僅通過(guò)堆加數(shù)個(gè)卷積層就實(shí)現(xiàn)原有模型的精度提升。
講者介紹

丁霄漢,清華大學(xué)在讀博士生,導(dǎo)師為丁貴廣副教授。主要研究方向?yàn)榫矸e神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)與優(yōu)化。曾在CVPR,ICML,ICCV,NeurIPS等會(huì)議上作為第一作者發(fā)表論文5篇。曾獲2019年百度獎(jiǎng)學(xué)金。RepVGG是在曠視科技實(shí)習(xí)期間和張祥雨博士等人合作的工作。
會(huì)議題目

RepVGG:讓VGG式極簡(jiǎn)卷積網(wǎng)絡(luò)Great Again
會(huì)議摘要

我們提出一種VGG式單路極簡(jiǎn)卷積網(wǎng)絡(luò)架構(gòu),一路3x3卷到底,在速度和性能上達(dá)到SOTA水平,在ImageNet上超過(guò)80%正確率。這一架構(gòu)是用“結(jié)構(gòu)重參數(shù)化”方法實(shí)現(xiàn)的,訓(xùn)練時(shí)模型具有多分支結(jié)構(gòu),訓(xùn)練完成后等價(jià)轉(zhuǎn)換為單路3x3卷積架構(gòu)。
會(huì)議亮點(diǎn)

1、提出的是一種極其簡(jiǎn)單、非常實(shí)用、速度快、性能高的通用卷積神經(jīng)網(wǎng)絡(luò)架構(gòu);
2、不用NAS,不用attention,不用各種新穎的激活函數(shù),甚至不用分支結(jié)構(gòu),只用3x3卷積和ReLU,也能達(dá)到SOTA性能;
3、“結(jié)構(gòu)重參數(shù)化”方法的實(shí)現(xiàn)非常簡(jiǎn)單,寫成代碼不過(guò)三十行。
會(huì)議時(shí)間
2021年1月24日(周日)20:00-21:00? 線上直播
關(guān)注微信公眾號(hào):人工智能前沿講習(xí),對(duì)話框回復(fù)“SFFAI98,獲取入群二維碼、PPT下載、推薦論文下載
