最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

周六直播預(yù)告 | 打破思維慣性,曠視MegEngine告訴你為什么要思考大kernel size

2022-03-14 18:19 作者:TechBeat人工智能社區(qū)  | 我要投稿

AI er們,春暖花開(kāi)時(shí),正是談戀愛(ài)、約干飯、求躺平、讀paper、搞代碼、勤思考的大好時(shí)機(jī)!大家活躍的腦細(xì)胞,一定需要一些新鮮的學(xué)術(shù)討論話題,來(lái)為接下來(lái)一年的工作、科研創(chuàng)新打下思考的基礎(chǔ)。

曠視MegEngine團(tuán)隊(duì)和TechBeat人工智能社區(qū)一起,策劃了本場(chǎng)直播交流活動(dòng),帶領(lǐng)大家向慣性思維發(fā)起挑戰(zhàn)。北京時(shí)間本周六(3.19)上午10:00,圍繞“Large Kernel Makes CNN Great Again”的主題,帶來(lái)三位講者的在線分享。

△掃描二維碼,加入曠視MegEngine直播群聊△

在深度學(xué)習(xí)的模型設(shè)計(jì)領(lǐng)域中,一般認(rèn)為 Conv 的 kernel size 選擇 3x3 是最高效、最具性價(jià)比的設(shè)計(jì)。這一認(rèn)知從 VGG 論文發(fā)布出來(lái)的 8 年以來(lái)從未改變過(guò)。

但擁有敏銳雙眼的大家有沒(méi)有注意到,近期,ConvNext、RepLKNet、ConvMixer、MetaFormer等論文都出于模型效果開(kāi)始選擇了更大的 kernel size,在RepLKNet這一工作進(jìn)行理論探索和設(shè)計(jì)的同時(shí),MegEngine團(tuán)隊(duì)也開(kāi)始思考超大卷積核的高效實(shí)現(xiàn)對(duì)多種視覺(jué)應(yīng)用的重要意義,對(duì)“小 kernel size 的運(yùn)行效率更高”這一根植于模型設(shè)計(jì)者腦中的思維慣性發(fā)起挑戰(zhàn)。

想知道 ConvNext,RepLKNet為何不約而同將 kernel size 增大?想知道更大的 kernel size 到底給模型帶來(lái)了什么?想知道 MegEngine 是如何將 31*31 的 DWconv 優(yōu)化快了10余倍?

快來(lái)關(guān)注本次線上直播活動(dòng)吧!


活動(dòng)議程及報(bào)名方式


純粹想看【直播】的同學(xué)可以關(guān)注B站-曠視天元MegEngine直播間

https://datayi.cn/w/kojmOBWP

B站-曠視天元MegEngine直播間二維碼


預(yù)提問(wèn)表單

已經(jīng)有問(wèn)題的同學(xué),可以填寫下方表單,留下你的問(wèn)題。被選中6個(gè)問(wèn)題,我們將在直播中的QA環(huán)節(jié),請(qǐng)講者優(yōu)先回答,并送上由曠視MegEngine準(zhǔn)備的“煉丹眼罩”哦!

https://datayi.cn/w/GRwqVNdo


直播獎(jiǎng)品

直播過(guò)程中的提問(wèn)者,及現(xiàn)場(chǎng)抽獎(jiǎng)環(huán)節(jié)中獎(jiǎng)?wù)撸瑢@得由曠視MegEngine和將門TechBeat準(zhǔn)備的周邊禮品!記得要準(zhǔn)時(shí)收看我們的直播活動(dòng)哦!


分享內(nèi)容及講者介紹

01 2020年代的卷積網(wǎng)絡(luò)(10:05-10:35)

Talk介紹:

Vision Transformer的出現(xiàn)改變了計(jì)算機(jī)視覺(jué)中神經(jīng)網(wǎng)絡(luò)架構(gòu)的面貌。層級(jí)的Vision Transformer重新引入了很多ConvNet中的先驗(yàn),進(jìn)一步獲得了在廣泛視覺(jué)任務(wù)中的成功。一般大家把Transformer的成功更多地被歸功于自注意力模塊。本分享中我們將一起探索融入Transformer設(shè)計(jì)的大卷積核ConvNet與最新的Vision Transformer相比如何,以及Transformer的優(yōu)越性來(lái)自于何處。

講者介紹:

劉壯,加州大學(xué)伯克利分校EECS系Trevor Darrell教授研究組的五年級(jí)博士生,2017年本科畢業(yè)于清華大學(xué)姚班。曾在Intel Labs、Adobe Research和Facebook AI Research擔(dān)任研究實(shí)習(xí)生,康奈爾大學(xué)擔(dān)任訪問(wèn)研究員。主要研究領(lǐng)域是深度學(xué)習(xí)和計(jì)算機(jī)視覺(jué),具體主要包括開(kāi)發(fā)和研究準(zhǔn)確,高效,可擴(kuò)展的視覺(jué)識(shí)別系統(tǒng)。根據(jù)谷歌學(xué)術(shù)的統(tǒng)計(jì),他的學(xué)術(shù)成果被引用超過(guò)25000次。他的工作DenseNet獲得了CVPR 2017的最佳論文獎(jiǎng)。


02 超大卷積核架構(gòu)設(shè)計(jì)與高效實(shí)踐 (10:35-11:05)

Talk介紹:

卷積網(wǎng)絡(luò)的 kernel size 可以多大?答案是:25x25 就很好,31x31 甚至更好。我們發(fā)現(xiàn)卷積網(wǎng)絡(luò)的基礎(chǔ)設(shè)計(jì)維度——kernel size——對(duì)模型的性能特別是分割和檢測(cè)等下游任務(wù)至關(guān)重要。我們提出一種大量采用超大卷積核的模型——RepLKNet,在結(jié)構(gòu)重參數(shù)化、depthwise 卷積等設(shè)計(jì)要素的加持下,超大卷積既強(qiáng)又快,在目標(biāo)檢測(cè)和語(yǔ)義分割等任務(wù)上超過(guò) Swin Transformer 而且遠(yuǎn)超傳統(tǒng)小卷積模型。這些跡象表明,Transformer 性能強(qiáng)悍的本質(zhì)可能并不在于 attention,而在于其大感受野。在部署落地方面,我們提出一種專門為超大卷積核優(yōu)化的卷積算法以實(shí)現(xiàn)大幅加速,所以 RepLKNet 不但 FLOPs 低,實(shí)際運(yùn)行也快,對(duì)工業(yè)應(yīng)用非常友好。

講者介紹:

丁霄漢,清華大學(xué)博士生,師從丁貴廣副教授,研究領(lǐng)域?yàn)樯窠?jīng)網(wǎng)絡(luò)通用模型、基本工具、基礎(chǔ)理論。在CVPR/ICCV/ICML/NeurIPS等會(huì)議發(fā)表過(guò)一系列關(guān)于模型設(shè)計(jì)、優(yōu)化、壓縮、加速的論文,建立了一個(gè)稱為結(jié)構(gòu)重參數(shù)化的技術(shù)流派和體系。其中,在曠視研究院實(shí)習(xí)期間的代表作RepVGG已獲得約2100 GitHub stars。


03 MegEngine 大 kernel 工程優(yōu)化實(shí)踐(11:05-11:35)

Talk介紹:?

近期部分優(yōu)秀學(xué)者們提出大的有效感受野可能是 Transformer 成功更為本質(zhì)的原因,因此采用大 kernel depthwise 卷積有可能是 self-attention 的一種替代。 相比于稠密卷積,普通的 depthwise 卷積由于算存比過(guò)低對(duì)硬件并不友好,實(shí)際應(yīng)用中遠(yuǎn)達(dá)不到硬件的理論峰值。但大 kernel depthwise 卷積相比于普通 depthwise 卷積算存比更高,對(duì)硬件更加友好,在理論上為我們提供了優(yōu)化的可能。MegEngine 對(duì)大 kernel depthwise 卷積做了深入優(yōu)化,相比于 PyTorch(cudnn) 最高加速 10 倍以上,絕對(duì)性能在部分情況下可以逼近硬件的理論峰值。在一定程度上打消了大 kernel 卷積網(wǎng)絡(luò)在訓(xùn)練和部署上的效率疑慮。

講者介紹:

現(xiàn)任曠視開(kāi)元深度學(xué)習(xí)框架MegEngine異構(gòu)計(jì)算組負(fù)責(zé)人,主要負(fù)責(zé)曠視 MegEngine 的推理工作。任職期間完成了 MegEngine 基于 MLIR 的即時(shí)編譯技術(shù)實(shí)現(xiàn)等多項(xiàng)技術(shù)突破,并落地 MegEngine CUDA 推理解決方案以及多個(gè)端上優(yōu)化項(xiàng)目。王彪畢業(yè)于中科院計(jì)算所,研究方向?yàn)楦咝阅苡?jì)算,對(duì) X86、Arm、OpenCL、CUDA 等多種平臺(tái)具備豐富的優(yōu)化經(jīng)驗(yàn)。


3月19日周六上午10:00,

我們直播間見(jiàn)!

關(guān)于TechBeat人工智能社區(qū)

TechBeat (www.techbeat.net) 是一個(gè)薈聚全球華人AI精英的成長(zhǎng)社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗(yàn),加速并陪伴其學(xué)習(xí)成長(zhǎng)。 期待這里可以成為你學(xué)習(xí)AI前沿知識(shí)的高地,分享自己最新工作的沃土,在AI進(jìn)階之路上的升級(jí)打怪的根據(jù)地!

更多詳細(xì)介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ

周六直播預(yù)告 | 打破思維慣性,曠視MegEngine告訴你為什么要思考大kernel size的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
休宁县| 琼结县| 九龙坡区| 崇礼县| 靖远县| 商河县| 象州县| 静乐县| 丰都县| 前郭尔| 连江县| 普定县| 交口县| 海南省| 秀山| 巨野县| 隆昌县| 吴忠市| 噶尔县| 郸城县| 彭山县| 会东县| 连城县| 馆陶县| 七台河市| 邻水| 尚志市| 寿宁县| 双牌县| 邛崃市| 潮州市| 南澳县| 剑阁县| 信阳市| 宜丰县| 锦州市| 和林格尔县| 靖西县| 米林县| 正阳县| 谢通门县|