【機器學習筆記】Week4
2022-03-13 20:59 作者:Magician-Artist | 我要投稿
本周主要講解了神經(jīng)網(wǎng)絡
為什么要從線性回歸轉(zhuǎn)向神經(jīng)網(wǎng)絡?——可以更好地處理高維數(shù)據(jù)。神經(jīng)網(wǎng)絡可以擁有更好的表達能力,比如:對于線性不可分的問題(XOR,異或),可以通過神經(jīng)網(wǎng)絡解決。
前饋(feedforward):神經(jīng)網(wǎng)絡一端連接著一個觀察值的特征值,另一端連接著對應的目標值(比如觀察值的分類)。觀察值的特征值在網(wǎng)絡中向前傳播,每經(jīng)過一層,網(wǎng)絡都會對特征值進行轉(zhuǎn)換,目標是讓最后的輸出與目標值相同?!扒梆仭边@個名字就源于此。
前向傳播(forward propagatiion):一個觀察值(更常見的是一組觀察值的集合,即批次batch)被傳給神經(jīng)網(wǎng)絡,它的輸出值就會被拿來用損失函數(shù)與觀察值的真實值進行比較。這個過程叫前向傳播。
反向傳播(backward propagation):前向傳播后,算法“向后”在神經(jīng)網(wǎng)絡中傳播,識別出每個參數(shù)對預測值和真實值之間的差異的影響程度,這個過程叫做反向傳播。對于每一個參數(shù),優(yōu)化算法則考慮如何調(diào)整權重值來改善輸出。
epoch:所有觀察值都通過網(wǎng)絡傳遞一次就稱為一個epoch,通過epoch迭代更新參數(shù)的值。


附送電腦桌面壁紙一張~

標簽: