2023.4.15-4.17跑出結(jié)果
1、[深度學(xué)習(xí)(五)學(xué)習(xí)率的調(diào)節(jié)](http://t.csdn.cn/Rgnv2)
2、[深度學(xué)習(xí)之訓(xùn)練過程中特征圖的可視化](http://t.csdn.cn/M1Duu)
3、[Focal Loss損失函數(shù)(超級(jí)詳細(xì)的解讀)](http://t.csdn.cn/oztl6)
4、[論文閱讀瞎記(一)FCOS: Fully Convolutional One-Stage Object Detection (CVPR2019)](http://t.csdn.cn/uLHGg)
5、[【庖丁解?!繌牧銓?shí)現(xiàn)FCOS(四):FCOS的訓(xùn)練與測(cè)試表現(xiàn)](http://t.csdn.cn/VNXGR)
6、[卷積神經(jīng)網(wǎng)絡(luò)超詳細(xì)介紹](http://t.csdn.cn/Em2t4)
7、[【PyTorch】張量 (Tensor) 的拆分與拼接 (split, chunk, cat, stack)](http://t.csdn.cn/LoRcX)
8、[使用Pytorch的nonzero函數(shù)報(bào)warning: UserWarning: This overload of nonzero is deprecated](http://t.csdn.cn/VCGdB)
筆記
對(duì)于AP的計(jì)算,畫PR曲線時(shí),當(dāng)出現(xiàn)虛警時(shí)會(huì)出現(xiàn)斷崖式下跌,即若有得分高的虛警其AP可能會(huì)較低,當(dāng)沒有虛警時(shí),AP取決于Recall。

為啥前幾天又沒寫,因?yàn)樾膽B(tài)又崩了,以前沒覺得自己心理素質(zhì)這么差過。
之前看到出問題還會(huì)覺得說還挺新奇,又是一個(gè)沒見過的錯(cuò)誤,然后去各種找問題在哪,咋改……
現(xiàn)在,呵呵,求求了,趕緊做完吧,這畢設(shè)我是一天都不想做了,只求快搞完,搞完這波我從西瓜書開始學(xué)……
開始擔(dān)心自己的精神狀態(tài)……
不過好在主要的結(jié)果有了,快沖!