【五分鐘機(jī)器學(xué)習(xí)】卷積神經(jīng)網(wǎng)絡(luò)II:和傳統(tǒng)學(xué)習(xí)模型的區(qū)別

meta learning 元學(xué)習(xí)--模型可以解決相似的問題
task-specific learning 特定任務(wù)學(xué)習(xí)
multi-task learning
cnn在元學(xué)習(xí)中有優(yōu)勢:02:34
關(guān)于反向傳播的解釋(自己搜的,若不正確歡迎指正):
反向傳播的核心原理是鏈?zhǔn)椒▌t,即將整個(gè)神經(jīng)網(wǎng)絡(luò)看作是由一系列的函數(shù)組成,每個(gè)函數(shù)的輸出作為下一個(gè)函數(shù)的輸入,然后通過鏈?zhǔn)椒▌t計(jì)算每個(gè)函數(shù)對(duì)輸入的偏導(dǎo)數(shù),從而計(jì)算整個(gè)神經(jīng)網(wǎng)絡(luò)對(duì)輸入和參數(shù)的偏導(dǎo)數(shù),然后根據(jù)梯度下降算法更新參數(shù)。
最后,由CNN的特點(diǎn) 04:39 引出了下一篇https://www.bilibili.com/video/BV1Gt4y1Q7Kq/?spm_id_from=333.999.0.0
標(biāo)簽: