這 16 個 CV 知識干貨資源包或許能拯救你的期末|極市年末干貨匯總限時下載!
極市平臺每年都會輸出許多CV的干貨內(nèi)容,頂會的論文解讀和論文分類整理、大咖技術(shù)直播、各類深度學(xué)習(xí)實(shí)踐教程、面試面經(jīng)、開源數(shù)據(jù)集分類匯總......內(nèi)容涵蓋了零基礎(chǔ)到進(jìn)階。
極市將這些高質(zhì)量的內(nèi)容都整理匯總成一個干貨資源包,詳見如下:


獲取方式:關(guān)注「極市平臺」公眾號,后臺回復(fù)「1124」即可獲取
內(nèi)容展示:



目錄:
###?5年CVPR論文以及經(jīng)典資源匯總
###?Valse2022?poster合集
###?初探video?transformer系列
-?初探Video Transformer(一):拋棄CNN的純Transformer視頻理解框架—TimeSformer
-?初探Video Transformer(二):谷歌開源更全面、高效的無卷積視頻分類模型ViViT
###?底層視覺任務(wù)系列解讀
-?視覺底層任務(wù)優(yōu)秀開源工作:BasicSR 庫使用方法
-?視覺底層任務(wù)優(yōu)秀開源工作:MMEditing 庫使用方法
-?底層任務(wù)超詳細(xì)解讀?(一):模糊核迭代校正盲超分方法 IKC
-?底層任務(wù)超詳細(xì)解讀?(二):盲超分的端到端交替優(yōu)化方法 DAN
-?底層任務(wù)超詳細(xì)解讀?(三):只用純合成數(shù)據(jù)來訓(xùn)練真實(shí)世界的盲超分模型 Real-ESRGAN
-?底層任務(wù)超詳細(xì)解讀?(四):首個超分可解釋性工作 LAM,使用局部歸因圖理解和可視化的超分網(wǎng)絡(luò)
###?搞懂?Vision?Transformer?原理和代碼系列
-?**Section 1:視覺 Transformer 基礎(chǔ)**
-?**Section 2:視覺 Transformer 進(jìn)階**
-?**Section 3:Transformer在識別任務(wù)的演進(jìn)**
-?**Section 4:Transformer內(nèi)部機(jī)制的探究**
-?**Section 5:輕量化Transformer (1)**
-?**Section 6:將卷積融入視覺 Transformer (1)**
-?**Section 7:輕量化Transformer (2)**
-?**Section 8:更深的視覺 Transformer**
-?**Section 9:更快更小的 Transformer**
-?**Section 10:視覺 Transformer 訓(xùn)練方式的演進(jìn)**
-?**Section 11:輕量化 Transformer (3)**
-?**Section 12:Transformer+圖像質(zhì)量評價**
-?**Section 13:Transformer 的精煉和底層視覺任務(wù)新探索**
-?**Section 14:將卷積融入視覺 Transformer (2)**
-?**Section 15:Transformer 在識別任務(wù)的改進(jìn)**
-?**Section 16:Vision Transformer + NAS**
-?**Section 17:Swin Transformer:各項(xiàng)任務(wù)SOTA模型?(1)**
-?**Section 18:Attention is not all you need**
-?**Section 19:MetaTransformer:簡單到尷尬的視覺模型**
-?**Section 20:Swin Transformer:各項(xiàng)任務(wù)SOTA模型?(2)**
-?**Section 21:Transformer 用于底層視覺任務(wù)的探索**
-?**Section 22:Transformer內(nèi)部機(jī)制的探究**
-?**Section 23:小數(shù)據(jù)集訓(xùn)練視覺 Transformer 模型**
-?**Section 24:極深的 Transformer 模型**
-?**Section 25:面向 TensorRT 的視覺 Transformer**
-?**Section 26:關(guān)于視覺 Transformer 你應(yīng)該知道的3件事**
-?**Section 27:視覺 Transformer 的復(fù)仇:DeiT III**
-?**Section 28:TinyViT:小型 ViT 的快速預(yù)訓(xùn)練蒸餾**
-?**Section 29:MiniViT:通過權(quán)重復(fù)用壓縮視覺 Transformer 模型**
-?**Section 30:無需微調(diào)加速大規(guī)模視覺 Transformer 密集預(yù)測任務(wù)的方法**
-?**Section 31:動態(tài) Token 稀疏化實(shí)現(xiàn)高效的視覺 Transformer**
-?**Section 32:動態(tài) Token 稀疏化實(shí)現(xiàn)高效的視覺 Transformer**
###?模型壓縮經(jīng)典解讀系列
-?深入淺出的模型壓縮:你一定從未見過如此通俗易懂的 Slimming 操作?
-?模型壓縮大殺器!詳解高效模型設(shè)計(jì)的自動機(jī)器學(xué)習(xí)流水線?
-?萬字綜述:用于深度神經(jīng)網(wǎng)絡(luò)加速的 Shift 操作?
-?深入研究模型壓縮經(jīng)典 Ghostnet:如何用少量計(jì)算生成大量特征圖??
-?模型壓縮經(jīng)典解讀:解決訓(xùn)練數(shù)據(jù)問題,無需數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)壓縮技術(shù)?
-?模型壓縮經(jīng)典解讀:解決訓(xùn)練數(shù)據(jù)問題,無需數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)壓縮技術(shù)...(中)?
-?模型壓縮經(jīng)典解讀:解決訓(xùn)練數(shù)據(jù)問題,無需數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)壓縮技術(shù)(下)?
-?模型壓縮經(jīng)典解讀:隱私保護(hù)模型壓縮技術(shù) Nasty Teacher,無懼模型“被蒸餾”!?
- NeurIPS22 Spotlight|華為諾亞 GhostNetV2 出爐:長距離注意力機(jī)制增強(qiáng)廉價操作?
-?模型壓縮經(jīng)典解讀:只訓(xùn)練 BN 層加速神經(jīng)架構(gòu)搜索 BN-NAS (ICCV 2021)?
###?深度了解自監(jiān)督系列
-?大概是全網(wǎng)最詳細(xì)的何愷明團(tuán)隊(duì)頂作 MoCo 系列解讀?。ㄉ希?
-?大概是全網(wǎng)最詳細(xì)的何愷明團(tuán)隊(duì)頂作?MoCo?系列解讀...(完結(jié)篇)?
-?深度了解自監(jiān)督學(xué)習(xí),就看這篇解讀?!Hinton 團(tuán)隊(duì)力作:SimCLR 系列?
-?深度了解自監(jiān)督學(xué)習(xí),就看這篇解讀?!微軟首創(chuàng):運(yùn)用在 image 領(lǐng)域的 BERT
-?深度了解自監(jiān)督學(xué)習(xí),就看這篇解讀?!何愷明新作 MAE:通向 CV 大模型?
-?深度了解自監(jiān)督學(xué)習(xí),就看這篇解讀?!大規(guī)模預(yù)訓(xùn)練視覺任務(wù)的 BERT 模型:iBOT
-?深度了解自監(jiān)督學(xué)習(xí),就看這篇解讀?!SimMIM:掩碼圖像建模的簡單框架?
-?深度了解自監(jiān)督,就看這篇解讀(六)!微軟亞研院提出新的自監(jiān)督學(xué)習(xí)范式:PIC
-?深度了解自監(jiān)督學(xué)習(xí),就看這篇(七)?!混合卷積-Transformer 模型實(shí)現(xiàn)更高效的MAE
###?冠軍方案
- NTIRE 2021 冠軍方案:華碩和臺灣大學(xué)提出深度引導(dǎo)影像重照明方案-MBNet
- ECV 2021 冠軍方案解讀:占道經(jīng)營識別方案
- ECV 2021 冠軍方案解讀:駕駛員不良駕駛識別方案
- ECV 2021 冠軍方案解讀:渣土車識別方案
- ECV 2021 冠軍方案解讀:船只數(shù)量檢測方案
-?CVPR?2021?Short-video?Face?Parsing?Challenge?季軍方案分享
-?街道垃圾識別冠軍方案解讀|ECV2022
-?神仙打架丨NTIRE2021視頻超分挑戰(zhàn)雙賽道方案
-?戶外違規(guī)廣告牌識別冠軍方案|ECV?2022
-?高通人工智能應(yīng)用創(chuàng)新大賽冠軍方案解讀
-?反光衣識別算法冠軍方案總結(jié)(附源碼)|極市打榜
-?短袖短褲識別算法冠軍方案總結(jié)?|?極市打榜
###?極市直播
###?技術(shù)綜述
-?綜述:一文詳解50多種多模態(tài)圖像融合方法
-?真正的即插即用!盤點(diǎn)11種CNN網(wǎng)絡(luò)設(shè)計(jì)中精巧通用的“小”插件
-?一文看盡?6篇?CVPR2021?偽裝目標(biāo)檢測、旋轉(zhuǎn)目標(biāo)檢測論文
-?一文看盡?27?篇?CVPR2021?2D?目標(biāo)檢測論文
-?一文看盡?6篇?CVPR2021?2D?異常檢測論文
-?一文概覽?CVPR2021?最新18篇?Oral?論文
-?萬字長文細(xì)說工業(yè)缺陷檢測
-?如何入門多視角人臉正面化生成?不得不看的超詳細(xì)最新綜述!
-?如何入門多視角3D目標(biāo)識別?超詳細(xì)最新綜述來襲!
-?進(jìn)可暴力提性能,退可無損做壓縮:結(jié)構(gòu)重參數(shù)化技術(shù)綜述
-?【盤點(diǎn)】CVPR 二十年,影響力最大的 10?篇論文!
###?論文寫作/學(xué)習(xí)經(jīng)驗(yàn)/工具匯總
-?在做算法工程師的道路上,你掌握了什么概念或技術(shù)使你感覺自我提升突飛猛進(jìn)?
-?用LaTex寫論文經(jīng)驗(yàn)分享
-?在計(jì)算機(jī)領(lǐng)域的科研中,最初的創(chuàng)新點(diǎn)從何而來?
-?研究生第一篇科研論文常犯問題總結(jié)
-?一名博士后出站前反思:若能重讀博士,我定會注意這20件事!
-?如何擺脫對翻譯軟件的依賴?高效閱讀英文文獻(xiàn)方法總結(jié)
-?深度學(xué)習(xí)中創(chuàng)新點(diǎn)比較小,但是有效果,可以發(fā)(水)論文嗎_
-?美國老姐看完200+中國學(xué)生SCI論文,怒寫超詳細(xì)“中國人英文論文寫作指南”,還被推上了B站熱門…
-?論文寫作注意細(xì)節(jié)總結(jié)
-?論文畫圖工具:25個常用Matplotlib圖的Python代碼總結(jié)
-?計(jì)算機(jī)頂會論文投稿指南
-?發(fā)了6篇SCI的師兄告訴我的秘密:科研工具推薦大合集!
-?對自己深度學(xué)習(xí)方向的論文有idea,可是工程實(shí)踐能力跟不上,實(shí)驗(yàn)搞不定怎么辦?
-?從選題到答辯:優(yōu)秀博士論文寫作最全面的經(jīng)驗(yàn)分享
-?博士生在沒有導(dǎo)師指導(dǎo)的情況下,該如何自己選題發(fā) CVPR ?
-?北京大學(xué)施柏鑫:從審稿人視角,談?wù)勗趺磳懸黄狢VPR論文
-?2022?AAAI?投稿體會
-?21張讓你代碼能力突飛猛進(jìn)的速查表(神經(jīng)網(wǎng)絡(luò)、線性代數(shù)、可視化等)
###?面試面經(jīng)
-?準(zhǔn)算法工程師從30+場秋招中總結(jié)出的超強(qiáng)面經(jīng)—C、Python與算法篇篇(含答案)
-?一位算法工程師從30+場秋招面試中總結(jié)出的超強(qiáng)面經(jīng)—語義分割篇(含答案)
-?圖像處理知多少?準(zhǔn)大廠算法工程師30+場秋招后總結(jié)的面經(jīng)問題詳解
-?我愿稱之為史上最全的深度學(xué)習(xí)面經(jīng)總結(jié)(附答案詳解)
-?一位算法工程師從30+場秋招面試中總結(jié)出的超強(qiáng)面經(jīng)——目標(biāo)檢測篇(含答案)
-?騰訊_字節(jié)_華為_曠視?2022屆實(shí)習(xí)面經(jīng)—計(jì)算機(jī)視覺方向
-?收獲17個offer!我的105場秋招面試經(jīng)驗(yàn)
-?算法崗必須人手一篇頂會?超詳細(xì)面經(jīng):無論文、無實(shí)習(xí)拿下騰訊CV算法崗
-?深度學(xué)習(xí)三十問!一位算法工程師經(jīng)歷30+場CV面試后總結(jié)的常見問題合集(含答案)
-?深度學(xué)習(xí)六十問!一位算法工程師經(jīng)歷30+場CV面試后總結(jié)的常見問題合集下篇(含答案)
-?深度學(xué)習(xí)補(bǔ)缺補(bǔ)漏篇!準(zhǔn)算法工程師總結(jié)出的超強(qiáng)面經(jīng)(含答案)
-?普通段位玩家的CV算法崗上岸之路(2023屆秋招)
-?面試官的角度談?wù)勊惴◢徝嬖嚨倪^程(崗位涉及到OCR、目標(biāo)檢測、圖像分割、語音識別等領(lǐng)域)
-?面經(jīng)|經(jīng)典算法面試題&知識點(diǎn)匯總(附答案)
-?面經(jīng)|計(jì)算機(jī)視覺面試復(fù)習(xí)筆記(二)卷積神經(jīng)網(wǎng)絡(luò)
-?決戰(zhàn)春招!算法工程師面試問題及資料超詳細(xì)合集(多家公司算法崗面經(jīng)_代碼實(shí)戰(zhàn)_網(wǎng)課_競賽等)
-?計(jì)算機(jī)視覺面試復(fù)習(xí)筆記(三):深度學(xué)習(xí)基礎(chǔ)面試常見問題總結(jié)
-?計(jì)算機(jī)基礎(chǔ)與手撕代碼篇!準(zhǔn)算法工程師總結(jié)出的超強(qiáng)面經(jīng)(含答案)
-?【面經(jīng)系列】萬字面試分享貼!從十二個角度解析面試全流程!附互聯(lián)網(wǎng)公司Offer難度系數(shù)分析
###?實(shí)操教程
-?Pytorch中Spatial-Shift-Operation的5種實(shí)現(xiàn)策略
-?PyTorch?之?Checkpoint?機(jī)制解析
- PyTorch 深度剖析:如何使用模型并行技術(shù)?(Model Parallel)
- PyTorch 深度剖析:并行訓(xùn)練的 DP 和 DDP 分別在什么情況下使用及實(shí)例
-?PyTorch?對類別張量進(jìn)行?one-hot?編碼
-?用Pytorch輕松實(shí)現(xiàn)28個視覺Transformer,開源庫 timm 了解一下!(附代碼解讀)
-?用OpenCV實(shí)現(xiàn)超輕量的NanoDet目標(biāo)檢測模型!
-?視覺神經(jīng)網(wǎng)絡(luò)模型優(yōu)秀開源工作:timm庫使用方法和最新代碼解讀
-?實(shí)用教程詳解:用OpenCV的DNN模塊部署YOLOv5目標(biāo)檢測
-?實(shí)踐教程?_?PyTorch中相對位置編碼的理解
-?實(shí)踐教程?_?一文讓你把Docker用起來!
-?實(shí)操教程?_?使用Docker為無網(wǎng)絡(luò)環(huán)境搭建深度學(xué)習(xí)環(huán)境
-?模型部署翻車記:pytorch轉(zhuǎn)onnx踩坑實(shí)錄
-?記一次坎坷的算法需求實(shí)現(xiàn):輕量級人體姿態(tài)估計(jì)模型的修煉之路(附MoveNet復(fù)現(xiàn)經(jīng)驗(yàn))
-?超快速的端到端實(shí)例分割模型,手把手教你用opencv部署Yolact
###?極市打榜
-?手把手教你搞定極市打榜新手任務(wù)!
-?極市打榜|ev-sdk封裝實(shí)操教程
-?開發(fā)效率提升60%,詳解在極市平臺上進(jìn)行的全流程線上算法開發(fā)
-?反光衣識別算法冠軍方案總結(jié)(附源碼)|極市打榜
-?保姆級教程:深度學(xué)習(xí)線上算法開發(fā)「環(huán)境配置」指南|極市
-?本想淺試一下,結(jié)果冠軍和獎金都到手了!記一次成功的算法項(xiàng)目實(shí)踐
- 2 小時上手真實(shí)項(xiàng)目線上開發(fā)?某 CV 算法開發(fā)訓(xùn)練平臺新功能又現(xiàn)王炸
###?開源數(shù)據(jù)集分類匯總
-?RGB-T?開源數(shù)據(jù)集資源匯總
-?自動駕駛方向開源數(shù)據(jù)集資源匯總(二):駕駛場景分割、車道線檢測、BEV語義分割等
-?醫(yī)學(xué)圖像開源數(shù)據(jù)集匯總(二)
-?自動駕駛方向開源數(shù)據(jù)集資源匯總
-?醫(yī)學(xué)圖像開源數(shù)據(jù)集匯總
-?圖像去噪開源數(shù)據(jù)集資源匯總
-?行人檢測
-?圖像去霧開源數(shù)據(jù)集資源匯總
-?圖像分類相關(guān)優(yōu)質(zhì)開源數(shù)據(jù)集匯總(附下載鏈接)
-?圖像分割開源數(shù)據(jù)集資源匯總(天空圖像、骨架分割、多品種果花等)
-?人體姿態(tài)估計(jì)相關(guān)開源數(shù)據(jù)集介紹及匯總
-?人群計(jì)數(shù)、行人檢測等開源數(shù)據(jù)集資源匯總
-?開源真實(shí)場景圖像檢測數(shù)據(jù)集匯總
-?關(guān)鍵點(diǎn)檢測開源數(shù)據(jù)集匯總
-?超全的?3D?視覺數(shù)據(jù)集匯總
-?安全帽、頭盔、反光衣、垃圾分類識別等開源數(shù)據(jù)集匯總
-?21個深度學(xué)習(xí)開源數(shù)據(jù)集分類匯總
-?15個目標(biāo)檢測開源數(shù)據(jù)集匯總
-?10個工業(yè)檢測數(shù)據(jù)集
###?論文解讀
-?各類Transformer都得稍遜一籌,LV-ViT:探索多個用于提升ViT性能的高效Trick
-?_CVPR2021最佳學(xué)生論文提名:Less is More
- 51.1AP!單階段檢測器的新紀(jì)錄,TOOD:即插即用的檢測器換頭術(shù),顯著提升性能
-?霸榜COCO和Cityscapes!南理工&CMU提出極化自注意力,更精細(xì)的雙重注意力建模結(jié)構(gòu)
-?別魔改網(wǎng)絡(luò)了,Google研究員:模型精度不高,是因?yàn)槟愕腞esize方法不夠好!
-?超越Swin Transformer!谷歌提出了收斂更快、魯棒性更強(qiáng)、性能更強(qiáng)的NesT
-?超越Swin,Transformer屠榜三大視覺任務(wù)!微軟推出新作:Focal Self-Attention
-?吊打一切現(xiàn)有版本的YOLO!曠視重磅開源YOLOX:新一代目標(biāo)檢測性能速度擔(dān)當(dāng)!
-?動態(tài)卷積超進(jìn)化!通道融合替換注意力,減少75%參數(shù)量且性能顯著提升 ICLR 2021
-?動態(tài)濾波器卷積新高度!DDF:同時解決內(nèi)容不可知與計(jì)算量兩大缺陷|CVPR2021
-?多快好省的目標(biāo)檢測器來了!曠視孫劍團(tuán)隊(duì)提出Anchor DETR:基于Anchor Point的DETR
-?反向 Dropout!韓松團(tuán)隊(duì)最新工作NetAug:提高Tiny神經(jīng)網(wǎng)絡(luò)性能的新訓(xùn)練方法
-?告別Heatmap!人體姿態(tài)估計(jì)表征新方法SimDR
-?給圖像特征提取開個“ViP”是什么效果?字節(jié)&牛津提出視覺解析器,全面超越HaloNet!
-?更深和更寬的Transformer,哪個更好?NUS團(tuán)隊(duì):我站W(wǎng)ider!
-?還在魔改Transformer結(jié)構(gòu)嗎?微軟&中山大學(xué)開源超強(qiáng)的視覺位置編碼,漲點(diǎn)顯著
-?何愷明最新工作:簡單實(shí)用的自監(jiān)督學(xué)習(xí)方案MAE,ImageNet-1K 87.8%!
-?華南理工&阿里最新提出ELSA:深挖transformer局部注意力的“致命點(diǎn)”并扭轉(zhuǎn)乾坤!
-?簡單新穎神操作,截?cái)喙歉捎糜跈z測!YOLO-ReT開源:邊緣GPU設(shè)備上的高性能檢測器
-?將位置信息嵌入通道注意力!NUS提出新機(jī)制,顯著提升卷積特征表達(dá)|CVPR2021
-?解決訓(xùn)練不穩(wěn)定性,何愷明團(tuán)隊(duì)新作來了!自監(jiān)督學(xué)習(xí)+Transformer=MoCoV3
-?開源|AAAI‘21杰出論文-三維重建新探索:解決數(shù)據(jù)依賴問題,讓自監(jiān)督信號更可靠!
-?來自Transformer的降維打擊:ReID各項(xiàng)任務(wù)全面領(lǐng)先,阿里&浙大提出TransReID
-?妙啊!不怕遮擋的圖像線段匹配 SOLD2,還能聯(lián)合自監(jiān)督線段檢測|CVPR2021 Oral
-?目標(biāo)檢測的“盡頭”竟是語言建模?Hinton團(tuán)隊(duì)提出Pix2Seq:性能優(yōu)于DETR
-?目標(biāo)檢測一卷到底之后,終于有人為它挖了個新坑|CVPR2021?Oral
-?內(nèi)存瓶頸和計(jì)算負(fù)載問題一舉突破?韓松團(tuán)隊(duì)提出MUCNetV2:解鎖MCU端新紀(jì)錄!
-?你僅需要看一個序列!YOLOS:重新思考Transformer的泛化性能
-?輕量高效!清華智能計(jì)算實(shí)驗(yàn)室開源基于PyTorch的視頻?(圖片)?去模糊框架SimDeblur
-?去除冗余token的DETR效果怎么樣?NUS顏水成團(tuán)隊(duì)提出端到端的PnP-DETR結(jié)構(gòu)
-?去掉softmax后Transformer會更好嗎?復(fù)旦&華為諾亞提出SOFT:輕松搞定線性近似
-?人類高質(zhì)量視覺模型YOLOP開源:同時處理三大視覺任務(wù),還能各種超越SOTA…
-?深入研究模型壓縮經(jīng)典Ghostnet:如何用少量計(jì)算生成大量特征圖?
-?時隔兩年,EfficientNet v2來了!更快,更小,更強(qiáng)!
-?視覺?Transformer?的可視化|CVPR2021
-?刷新視頻超分新記錄28.41dB!同時利用過去和未來隱狀態(tài)的全局視頻超分方案OVSR
-?突破置換模塊計(jì)算瓶頸,MSRA開源輕量版HRNet,超越主流輕量化網(wǎng)絡(luò)?。麮VPR2021
-?圖像反光能被一鍵去除了?港科大開源RFC,僅用一個操作,強(qiáng)反光也能完美去除|CVPR2021
-?網(wǎng)絡(luò)架構(gòu)之爭:三大主流架構(gòu)對決,誰是王者?深入思考CNN、Transformer與MLP
-?為了提升在小數(shù)據(jù)集上的性能,有學(xué)者讓神經(jīng)網(wǎng)絡(luò)像生物一樣“進(jìn)化”了|CVPR2021?Oral
-?我扔掉FPN來做目標(biāo)檢測,效果竟然這么強(qiáng)!YOLOF開源:你只需要看一層特征|CVPR2021
-?無需檢測器提取特征!LeCun團(tuán)隊(duì)提出MDETR:實(shí)現(xiàn)真正的端到端多模態(tài)推理|ICCV 2021 Oral
-?一個RGB-T工作的小小感悟與總結(jié)
-?移動端超分的磁懸浮,推理僅需10ms!港理工&達(dá)摩院開源超輕量超分網(wǎng)絡(luò)ECB
-?用簡單Mask分類實(shí)現(xiàn)語義分割、實(shí)例分割“大一統(tǒng)”!Facebook&UIUC開源MaskFormer
-?圓形的CNN卷積核?清華黃高團(tuán)隊(duì)&康奈爾提出圓形卷積,進(jìn)一步提升卷積結(jié)構(gòu)性能!
-?在目標(biāo)檢測被“遺忘”領(lǐng)域進(jìn)行探索后,百度開源最新力作UMOP:即插即用、無痛漲點(diǎn)
-?真正實(shí)用的退化模型:ETH開源業(yè)內(nèi)首個廣義盲圖像超分退化模型,性能效果絕佳
-?準(zhǔn)確率87.5%,微軟、中科大提出十字形注意力的CSWin?Transformer
-?自注意力真的是Transformer的必殺技嗎?MSRA否認(rèn)三連,并反手給你扔來一個sMLPNet
-?最新!基于深度學(xué)習(xí)的盲圖像超分技術(shù)一覽
-?最新綜述丨視頻超分辨率研究方法
- AdvProp:兩組Batch Normalization助你在CNN對抗訓(xùn)練中高效漲點(diǎn)
- CNN與Transformer的強(qiáng)強(qiáng)聯(lián)合!谷歌最新開源BoTNet,ImageNet達(dá)84.7%準(zhǔn)確率
- CNN終于殺回來了!京東AI開源最強(qiáng)ResNet變體CoTNet:即插即用的視覺識別模塊
- CVPR 2021|Neighbor2Neighbor:無需干凈圖像的自監(jiān)督圖像降噪
- DSRL:靈活而簡單的框架,提高網(wǎng)絡(luò)精度的且不引入額外的計(jì)算量,CVPR2020
- FAIR何愷明團(tuán)隊(duì)最新研究:定義ViT檢測遷移學(xué)習(xí)基線
-?ICCV?2021|“白嫖”性能的MixMo,一種新的數(shù)據(jù)增強(qiáng)or模型融合方法
- ICCV 21 Oral|拒絕調(diào)參,顯著提點(diǎn)!檢測分割任務(wù)的新?lián)p失函數(shù)RS Loss開源
- ICCV2021|性能優(yōu)于何愷明團(tuán)隊(duì)MoCo v2,DetCo:為目標(biāo)檢測定制任務(wù)的對比學(xué)習(xí)
- ICML2021|超越SE、CBAM,中山大學(xué)開源SAM:無參Attention!
- MLP 又又又升級了!港大&商湯開源首個用于檢測與分割任務(wù)的MLP架構(gòu)
- MLP三大工作超詳細(xì)解讀:why do?we?need_
- MLP再添新磚,F(xiàn)acebook入局!ResMLP_完全建立在MLP上的圖像分類架構(gòu)
- Multi-Scale Densenet續(xù)作?搞定Transformer降采樣,清華聯(lián)合華為開源動態(tài)ViT!
-?OpenAI新寵C(jī)LIP有可視化了,CMU小哥開源新玩法,輕松搞定多類型圖文聯(lián)合檢索
- PP-YOLOv2開源,你的目標(biāo)檢測器又該升級了!性能超越Y(jié)OLOv5且推理耗時保持不變
- ResNet被全面超越了,是Transformer干的:依圖科技開源“可大可小”T2T-ViT,輕量版優(yōu)于MobileNet
- Swin Transformer重磅升級!Swin V2:向更大容量、更高分辨率的更大模型邁進(jìn)
- TPAMI 2021 :基于 event stream 的步態(tài)識別,準(zhǔn)確率高達(dá)90%!
- Transformer 向輕量型邁進(jìn)!微軟與中科院提出兩路并行的 Mobile-Former
- Transformer一作又出新作!HaloNet:用Self-Attention的方式進(jìn)行卷積
- Transformer在圖像復(fù)原領(lǐng)域的降維打擊!ETH提出SwinIR:各項(xiàng)任務(wù)全面領(lǐng)先
獲取方式:
關(guān)注「極市平臺」公眾號,后臺回復(fù)「1124」即可獲取
