一種簡單的目標(biāo)檢測算法(類overfeat?)(類yolo?)
前言:一開始我沒找到思路類似的算法,以為我這樣的算法是個創(chuàng)新,但轉(zhuǎn)念一下,md,這種的算法的思想非常自然,不應(yīng)該找不到資料啊,后來就找到了overfeat,只能說是我見識短淺了或者說yolo太火了?
最近在學(xué)習(xí)目標(biāo)檢測算法,目前最熱門的目標(biāo)檢測算法應(yīng)該是yolo系列的算法,比較早的目標(biāo)檢測算法有滑窗法、rcnn之類的,其中的滑窗法吸引了我的注意力,它劃過圖像的每一個角落

同時,我還注意到了特征點(diǎn)檢測

如果我們有一個帶有特征點(diǎn)檢測的圖像定位卷積網(wǎng)絡(luò),然后直接輸入大圖,這樣的話,輸出數(shù)據(jù)的形狀就會像是yolov1的數(shù)據(jù)形狀。
如果不看訓(xùn)練過程,光從外觀上來看,似乎不好區(qū)分這種方法與yolo方法。
訓(xùn)練方法:首先我們需要搭一個有平移不變性的網(wǎng)絡(luò),比如Darknet19,然后我們找很多分類物體處于中間的圖像,并標(biāo)注上預(yù)測框的寬和高(我個人認(rèn)為寬和高與物體位置無關(guān),所以可以在這里訓(xùn)練),然后開始訓(xùn)練。
訓(xùn)練完成后,我們把最后一層平均池化拆掉(因為在平均池化的過程中會丟失掉物體位置信息,這是我猜的),然后我們在最后一層卷積層添加上兩個特征數(shù)據(jù),也就是中心點(diǎn)的位置,都再添加一個和原來平均池化大小一樣的卷積層,然后繼續(xù)訓(xùn)練。
由于這種算法還沒實(shí)踐過,所以目前還缺乏數(shù)據(jù)。
實(shí)際上,如果我們能畫出卷積神經(jīng)網(wǎng)絡(luò)計算出來的所有特征圖,也就是畫出卷積神經(jīng)網(wǎng)絡(luò)的注意力所在的位置區(qū)域,然后再通過這個簡單的色塊識別算法,也能給出這個框的位置,當(dāng)然,這種方法可能有些不可控,但是如果真的訓(xùn)練出了一個“和預(yù)想的一樣”的網(wǎng)絡(luò),那我們可以得到一個有特定功能的濾波器。

關(guān)于機(jī)器學(xué)習(xí)的方法,不能只想著搭模型、找數(shù)據(jù)、訓(xùn)練模型就能直接解決問題