計(jì)算機(jī)視覺(jué)與深度學(xué)習(xí) 北京郵電大學(xué) 魯鵬 清晰版合集(完整版)


?
1.前言.1080P P1 - 49:43
?
?
1.前言.1080P P1 - 59:22
?分類器:

損失函數(shù):

優(yōu)化方法:

訓(xùn)練過(guò)程:

數(shù)據(jù)集:CIFA數(shù)據(jù)集

分類器設(shè)計(jì):

圖像類型:
- 二進(jìn)制圖像
- 灰度圖像
- 彩色圖像
圖像表示:將圖像表示為向量
- 直接將圖像矩陣轉(zhuǎn)換成向量

?
02.圖像分類任務(wù)介紹&線性分類器(上).1080P P2 - 54:52
?
線性分類器:是一種線性映射,將輸入的圖像特征映射為類別分?jǐn)?shù)





損失函數(shù):
?
02.圖像分類任務(wù)介紹&線性分類器(上).1080P P2 - 01:14:29
?

多類支撐向量機(jī)損失

正則項(xiàng)損失

超參數(shù): 在開始學(xué)習(xí)過(guò)程之前設(shè)置的參數(shù),而不是學(xué)習(xí)得到的,一般會(huì)對(duì)模型性能有著重要的影響

L2正則項(xiàng)

常用正則項(xiàng)損失:

參數(shù)優(yōu)化:是機(jī)器學(xué)習(xí)的核心步驟之一,利用損失函數(shù)的輸出值作為反饋信號(hào)來(lái)調(diào)整分類器參數(shù),以提升分類器對(duì)訓(xùn)練樣本的預(yù)測(cè)性能
優(yōu)化算法目標(biāo):找到使損失函數(shù)L達(dá)到最優(yōu)的那組參數(shù)W

梯度下降算法:一種簡(jiǎn)單而高效的迭代方法

- 數(shù)值法

2.解析法

梯度下降算法的計(jì)算效率

隨機(jī)梯度下降算法

小批量梯度下降算法


?
03.線性分類器(下).1080P P3 - 01:21:23
?數(shù)據(jù)集劃分:

K折交叉驗(yàn)證:


數(shù)據(jù)預(yù)處理:去均值、歸一化、去相關(guān)(數(shù)據(jù)的協(xié)方差矩陣是對(duì)角矩陣、白化(協(xié)方差矩陣是單位j矩陣)
全連接神經(jīng)網(wǎng)絡(luò):
?
04.全連接神經(jīng)網(wǎng)絡(luò)(上).1080P P4 - 04:13
?如何表示圖像:直接利用原始像素作為特征,展開為列向量

標(biāo)簽: