【CNN】Youtube上迄今為止最好的卷積神經(jīng)網(wǎng)絡(luò)入門教程

- 特征(Feature)由很多小塊images組成(1 ,-1)
- filtering (提?。?匹配的過程
image pixel 像素相乘 后相加 / 碎片數(shù)量

convolution后得到了一個(gè)map

不停用不同的feature repeat 得到不同的map

這就是 卷積層: 圖片變成了一堆 filtered images
layer(相同的操作)
3. 池化層(pooling)shrinking the image stake
- 在卷積image中一個(gè)2*2的window,依次記錄最大值。這樣我們得到個(gè)小的image


3.歸一 化

relu layer: 全變正
if input h < 0 :
return 0
else:
return h

多做幾個(gè)疊加 -- output 變小惹

4.finally 最后一組數(shù)據(jù)
全連接層

> 1 belong o
< 1 belong x
base on weight -- 0.92 ---> x
全過程如下:

?(1) 卷積層 :其主要目的是從圖像和一組可訓(xùn)練濾波器中提取特征。它們的應(yīng)用允許突出顯示某些特征并在輸出圖像中占據(jù)主導(dǎo)地位,(2) 池化 :它用于減小圖像的尺寸,從而損失盡可能少的信息。它可以保留圖像一部分的最高或平均像素值,(3) 整流線性單元(ReLU) :整流器緊接在每個(gè)卷積層之后使用,作為將負(fù)值替換為零的操作,并允許非要添加到模型中的線性度和 (4) 全連接(密集)層 :它根據(jù)卷積和池化過程提取的特征進(jìn)行分類。在這些層中,其所有節(jié)點(diǎn)都連接到前一層。
關(guān)于反向傳播:

找到最小error,梯度下降法

總結(jié):
需要調(diào)整的關(guān)于三個(gè)層的參數(shù)---關(guān)乎結(jié)果


apply in sound: 頻譜圖--2d image (input)

text:

這種就不能用cnn,因?yàn)閏onvolute 后會(huì)丟很多信息
