大白話講解卷積神經(jīng)網(wǎng)絡(luò)工作原理

卷積神經(jīng)網(wǎng)絡(luò)是用在計(jì)算機(jī)視覺,是人工智能的一個(gè)分支,計(jì)算機(jī)視覺就是告訴計(jì)算機(jī)如何理解圖像,比如人臉識別、自動(dòng)駕駛等
卷積神經(jīng)網(wǎng)絡(luò)是一個(gè)函數(shù),或者說是一個(gè)黑箱,有輸入和輸出,輸入就是一個(gè)二維的像素陣列(圖片),輸出就是圖片的類別。哪怕圖片經(jīng)過平移、縮放、旋轉(zhuǎn)、和局部加厚或者說是整體加厚,依舊不會(huì)誤導(dǎo)計(jì)算機(jī),其魯棒性和抗干擾性很強(qiáng)
雖然圖像可能經(jīng)過了某些變換,但是他依舊保留了原圖中的某些特征
卷積運(yùn)算

- 綠色表示原圖像上的像素
- 黃色表示卷積核
- 對應(yīng)相乘再相加,得到一個(gè)新的矩陣叫做feature map
池化(pooling、下采樣)

- 作用是將得到的feature map進(jìn)行縮小,減少數(shù)據(jù)量,減少數(shù)據(jù)量就意味著要犧牲一部分信息,但是是在可接受的范圍內(nèi)
- 兩種池化操作:max pooling(將區(qū)域中最大的值用來代替整個(gè)區(qū)域)、average pooling(將區(qū)域中所有元素的平均值用來代替整個(gè)區(qū)域)
- 一般使用max pooling,它能在保持原圖特征的同時(shí),還能夠?qū)D片的尺寸降下來
- 在圖片邊緣如果像素不夠的時(shí)候一般會(huì)使用padding進(jìn)行補(bǔ)零操作
正則化(normalization)
ReLU
- 利用ReLU(修正線性單元)激活函數(shù)將矩陣中的負(fù)數(shù)全部置零
- ReLU函數(shù)的性質(zhì),x < 0 時(shí),y = 0;x > 0 時(shí),y = x
全連接層
- 與前一層的每一個(gè)神經(jīng)元都相連

標(biāo)簽: