2023.4.18看SSD
1、【2.1SSD算法理論】 https://www.bilibili.com/video/BV1fT4y1L7Gi/?share_source=copy_web&vd_source=1e6f2281c23ca69b18df2d7768310983
2、【2.2 SSD源碼解析(Pytorch)】 https://www.bilibili.com/video/BV1vK411H771/?share_source=copy_web&vd_source=1e6f2281c23ca69b18df2d7768310983
筆記
【2.1SSD算法理論】
1、SSD和FCOS的區(qū)別:FCOS的特征層涉及特征融合;SSD的特征層沒(méi)有特征融合。
2、SSD和Faster-RCNN的區(qū)別:Faster-RCNN生成回歸參數(shù)時(shí)針對(duì)每一個(gè)類別生成,對(duì)于每一個(gè)框生成4*c個(gè);SSD生成回歸參數(shù)時(shí)不考慮類別,對(duì)于每一個(gè)框生成4個(gè)回歸參數(shù)。
3、SSD正樣本選?。海?)對(duì)每一個(gè)GT box找IOU最大的default box作為正樣本;(2)對(duì)每一個(gè)default box,如果其與任意一個(gè)GT box的IOU的值大于0.5則認(rèn)為為正樣本。
4、SSD負(fù)樣本選取:對(duì)除正樣本之外的default box計(jì)算highest confidence loss(越大表示越有可能被記為正樣本?),根據(jù)值最大的和正負(fù)樣本比例控制在1:3來(lái)選取負(fù)樣本。
【2.2 SSD源碼解析(Pytorch)】
1、SSD源碼使用介紹
(1)Backbone:主干網(wǎng)絡(luò)用Resnet50而不是VGG16,且只用Resnet50的conv1-conv4,并將conv4的卷積步距設(shè)為1*1大小的。
(2)使用BN結(jié)構(gòu)
(3)使用NVIDIA DALI library(用GPU對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,提高數(shù)據(jù)預(yù)處理的速度)(有的訓(xùn)練時(shí)發(fā)現(xiàn)GPU使用率低就是因?yàn)閿?shù)據(jù)預(yù)處理是用CPU,導(dǎo)致GPU運(yùn)行完上一個(gè)step時(shí),CPU還沒(méi)準(zhǔn)備好下一個(gè)step的數(shù)據(jù))
(4)混合精度(TF32 ,TF16)(不太懂,數(shù)據(jù)類型?)

為啥B站上有用Pytorch搭建SSD訓(xùn)練自己的數(shù)據(jù)集,有Pytorch搭建EfficientNet訓(xùn)練自己的數(shù)據(jù)集,就是沒(méi)有FCOS的,這算不算因?yàn)椴藀ush大佬出教程。
但是,深度學(xué)習(xí)小白拿到畢設(shè)題目表示真的很需要這樣一個(gè)教程,干啥都迷迷糊糊,想嘎。