YOLO改進系列之注意力機制(GAM Attention模型介紹)

模型結(jié)構(gòu)
為了提高計算機視覺任務(wù)的性能,人們研究了各種注意力機制。然而以往的方法忽略了保留通道和空間方面的信息以增強跨維度交互的重要性。因此,liu提出了一種通過減少信息彌散和放大全局交互表示來提高深度神經(jīng)網(wǎng)絡(luò)性能的全局注意力機制。作者的目標是設(shè)計一種注意力機制能夠在減少信息彌散的情況下也能放大全局維交互特征,采用序貫的通道-空間注意力機制并重新設(shè)計了CBAM子模塊,GAM Attention的整體結(jié)構(gòu)如下圖所示。
?

GAM Attention整體包含通道注意力模塊和空間注意力這兩個模塊。通道注意子模塊使用三維排列來在三個維度上保留信息。然后,它用一個兩層的MLP放大跨維通道-空間依賴性。(MLP是一種編碼-解碼器結(jié)構(gòu),與BAM相同,其壓縮比為r),通道注意子模塊如下圖所示。
?

在空間注意力子模塊中,為了關(guān)注空間信息,使用兩個卷積層進行空間信息融合,還從通道注意力子模塊中使用了與BAM相同的縮減比r。與此同時,由于最大池化操作減少了信息的使用,產(chǎn)生了消極的影響。這里刪除了池化操作以進一步保留特性映射??臻g注意力子模塊如下圖所示。
?

實現(xiàn)代碼
GAM Attention的實現(xiàn)代碼如下所示:

YOLOv5模型改進
本文在YOLOv5目標檢測算法的Backbone和Head部分分別加入GAM Attention來增強目標提取能力,以下分別是在Backbone以及Head中改進的模型結(jié)構(gòu)和參數(shù)(以YOLOv5s為例)。
在Backbone部分


在Head部分


?
總結(jié)
GAM Attention提出一種通過減少信息彌散和放大全局交互表示來提高深度神經(jīng)網(wǎng)絡(luò)性能的全局注意力機制。此外,CloAttentionGAM Attention可進一步應用于YOLOv7、YOLOv8等模型中,歡迎大家關(guān)注本博主的微信公眾號 BestSongC,后續(xù)更多的資源如模型改進、可視化界面等都會在此發(fā)布。另外,本博主最近也在MS COCO數(shù)據(jù)集上跑了一些YOLOv5的改進模型,實驗表明改進后的模型能在MS COCO 2017驗證集上分別漲點1-3%,感興趣的朋友關(guān)注后回復YOLOv5改進。
?