70+篇注意力機(jī)制高分論文及Python核心代碼分享
2023-09-25 17:59 作者:深度之眼官方賬號(hào) | 我要投稿
不知道CV方向的同學(xué)在讀論文的時(shí)候有沒有發(fā)現(xiàn)這樣一個(gè)問題:論文的核心思想很簡(jiǎn)單,但當(dāng)你找這篇論文的核心代碼時(shí)發(fā)現(xiàn),作者提供的源碼模塊會(huì)嵌入到分類、檢測(cè)、分割等任務(wù)框架中,這時(shí)候如果你對(duì)某一特定框架不熟悉,盡管核心代碼只有十幾行,依然會(huì)發(fā)現(xiàn)很難找出。
今天學(xué)姐就幫大家解決一部分這個(gè)問題,還記得上次分享的attention論文合集嗎?沒印象的同學(xué)點(diǎn)這里直達(dá)。
學(xué)姐這次總結(jié)了這30篇attention論文中的核心代碼分享給大家,還有一部分其他系列的論文,比如ReP、卷積級(jí)數(shù)等,核心代碼與原文都整理了。
由于篇幅和時(shí)間原因,暫時(shí)只分享了一部分,需要全部論文以及完整核心代碼的同學(xué)看這里??????
掃碼添加小享,回復(fù)“核心代碼”
免費(fèi)獲取全部論文+核心代碼合集

Attention論文
1、Axial Attention in Multidimensional Transformers
核心代碼
2、CCNet: Criss-Cross Attention for Semantic Segmentation
核心代碼
3、Aggregating Global Features into Local Vision Transformer
核心代碼
4、CROSSFORMER: A VERSATILE VISION TRANSFORMER HINGING ON CROSS-SCALE ATTENTION
核心代碼
5、Vision Transformer with Deformable Attention
核心代碼
6、Separable Self-attention for Mobile Vision Transformers
核心代碼
7、On the Integration of Self-Attention and Convolution
核心代碼
8、Non-deep Networks
核心代碼
9、UFO-ViT: High Performance Linear Vision Transformer without Softmax
核心代碼
10、Coordinate Attention for Efficient Mobile Network Design
核心代碼
掃碼添加小享,回復(fù)“核心代碼”
免費(fèi)獲取全部論文+核心代碼合集

ReP論文
1、RepVGG: Making VGG-style ConvNets Great Again
核心代碼
2、ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution Blocks
核心代碼
卷積級(jí)數(shù)論文
1、CondConv: Conditionally Parameterized Convolutions for Efficient Inference
核心代碼
2、Dynamic Convolution: Attention over Convolution Kernels
核心代碼
3、Involution: Inverting the Inherence of Convolution for Visual Recognition
核心代碼
掃碼添加小享,回復(fù)“核心代碼”
免費(fèi)獲取全部論文+核心代碼合集

標(biāo)簽: