學習分享一年,對神經(jīng)網(wǎng)絡的理解全都在這40分鐘里了


?
08:59
?
第一公設:
?
10:32
?

- 高中學的點線距
- 范數(shù)是一種變元為向量的標量函數(shù),本質(zhì)上也是函數(shù)
- SVM

第二公設:
?
12:25
?
第三公設:
?
14:32
?
?
16:01
?
?
19:49
?
?
萬能逼近定理,
21:49
?
- 激活函數(shù)必須是非線性的

- 總之是神經(jīng)網(wǎng)絡的復雜性來自于激活函數(shù)
- 激活函數(shù)是讓他增加復雜度 增加擬合的可能性
?
為什么增加神經(jīng)元
25:05
?
?
26:31
?

- 這里對yhat進行指數(shù)操作,其實是一個很常見的技巧;他會把y hat 從實數(shù)域投射到0到+∞;


?
28:38
?
?
神經(jīng)網(wǎng)絡層數(shù)
30:23
?
- 隱藏層越深,抽象程度越高
?
32:35
?之后就是講解梯度下降法了
標簽: