萌新的卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)筆記--訓(xùn)練Unet模型進(jìn)行圖像語義分割


創(chuàng)建Dataset和dataloader
基本框架
Unet 編碼(下采樣)部分對(duì)圖片進(jìn)行四次2*2的池化,每次池化圖片尺寸除以2后默認(rèn)向下取整,為保證解碼部分上采樣恢復(fù)圖片尺寸(四次尺寸*2)后與對(duì)應(yīng)編碼部分每層的圖片尺寸一致,需要重設(shè)圖片尺寸為16的倍數(shù),使得在網(wǎng)絡(luò)中每次池化圖片尺寸都能被2整除,另外(顯卡太垃圾,顯存太小) 圖片尺寸太大容易

跑不動(dòng),所以固定為較小的尺寸進(jìn)行訓(xùn)練。
Dataset:獲得樣本數(shù)量,索引并返回處理后的樣本
樣本:輸入和對(duì)應(yīng)標(biāo)準(zhǔn)的輸出組成一個(gè)樣本,(X0,Y0 ),(X1,Y1)...(Xn,Yn)
Dataloader: 加載Dataset,可迭代,一次同時(shí)讀取多個(gè)樣本并行輸入,之后讀取的樣本會(huì)增加一個(gè)batch_size維度([batch_size, channel, width, height])
數(shù)據(jù)集來自?:
https://www.kaggle.com/competitions/carvana-image-masking-challenge/data

訓(xùn)練
需要的模塊
訓(xùn)練集所有數(shù)據(jù)訓(xùn)練一次為一個(gè)epoch,1000個(gè)訓(xùn)練樣本,訓(xùn)練10個(gè)epoch,Batch_size為8
結(jié)果


效果




參考:
https://blog.csdn.net/qq_39172845/article/details/124364050