【短期之內(nèi)優(yōu)先學(xué)機(jī)器學(xué)習(xí)還是深度學(xué)習(xí)呢?】由我親自講解深度學(xué)習(xí)全套教程-人工智能
2023-02-05 04:24 作者:李晚風(fēng)_ | 我要投稿

第一章知識(shí)點(diǎn)總結(jié):深度學(xué)習(xí)基礎(chǔ)概念(P2-P8)
P2:
- 機(jī)器學(xué)習(xí)流程:1.數(shù)據(jù)獲取 2.特征工程(最關(guān)鍵部分) 3.建立模型 4.評(píng)估與應(yīng)用
- 深度學(xué)習(xí)的目的:通過(guò)“黑盒子”自動(dòng)提取特征以完成/輔助完成特征工程(避免人為規(guī)定標(biāo)簽的繁瑣任務(wù))
P3:
- 深度學(xué)習(xí)目前大部分用于計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理方面(識(shí)別,分類)
- 深度學(xué)習(xí)的主要缺點(diǎn)在于計(jì)算量大(速度慢,實(shí)時(shí)任務(wù)跟不上)
- 最龐大圖像分類庫(kù)IMAGENET,是2009年創(chuàng)建的大規(guī)模帶標(biāo)簽數(shù)據(jù)集,訓(xùn)練和測(cè)試算法常用的模板。從此計(jì)算機(jī)視覺(jué)開(kāi)始受到重視。2012年ALEX在比賽中憑借深度學(xué)習(xí)算法獲得冠軍,深度學(xué)習(xí)開(kāi)始受到重視。
P4:
- 通常一張圖片會(huì)被表示成三維數(shù)組(長(zhǎng)*寬*圖像性質(zhì)參數(shù))的形式
- 目前計(jì)算機(jī)視覺(jué)的挑戰(zhàn):照射角度,形狀改變,部分遮蔽,背景混入。(有足夠數(shù)據(jù)量目前都可解決)
P5:
- 分類問(wèn)題套路:1.給定標(biāo)簽 2.訓(xùn)練分類器 3.測(cè)試&評(píng)估
- K近鄰算法:不詳細(xì)展開(kāi),通俗解釋為:附近什么多就猜它是什么。(像素點(diǎn)值直接相減的方式不適用圖像分類,因?yàn)闊o(wú)法考慮背景與主體關(guān)系)
P6:
- 神經(jīng)網(wǎng)絡(luò)基礎(chǔ):線性函數(shù):自變量為輸入圖像全部信息(尺寸為1*自變量數(shù)量),參數(shù)是每個(gè)單個(gè)信息的權(quán)重(自變量數(shù)量*尺寸為類別數(shù)量),因變量為識(shí)別為每個(gè)類別的得分(類別數(shù)量*1),另外還有一個(gè)偏置參數(shù),總體為: y = kx + b。訓(xùn)練任務(wù)就是優(yōu)化k值的權(quán)重矩陣
P7:
- 損失函數(shù)用于衡量分類結(jié)果以指導(dǎo)模型當(dāng)前效果,其種類繁多(通常公式中以L表示loss)。up示例的損失函數(shù)設(shè)計(jì)為 L = Max ( 0,錯(cuò)誤值 - 正確值 + 近似容忍程度的值 )
P8:
- 損失函數(shù)值一致并不意味兩個(gè)模型一致,可能會(huì)有突出異常的單個(gè)自變量致使與訓(xùn)練期望相同的效果(過(guò)擬合),此時(shí)應(yīng)當(dāng)加入正則化懲罰項(xiàng)以減小模型的復(fù)雜程度。這里up只是簡(jiǎn)介,細(xì)節(jié)可詳見(jiàn)一位知乎答主的解釋:https://zhuanlan.zhihu.com/p/449538404 。
- softmax分類器,類似于sigmoid函數(shù)用于將所有得分函數(shù)的值壓縮至(0,1)區(qū)間內(nèi)。具體計(jì)算流程為: 1.計(jì)算所有得分的指數(shù) 2.將這些指數(shù)值歸一化 3.將答案標(biāo)簽對(duì)應(yīng)的數(shù)值取負(fù)對(duì)數(shù)得到損失值。(這段up的流程圖非常清晰地體現(xiàn)了計(jì)算過(guò)程 ?)7-前向傳播整體流程 P8 - 06:19?
- 由數(shù)據(jù)與當(dāng)前模型得出損失函數(shù)的過(guò)程稱為前向傳播,更新模型的過(guò)程稱為反向傳播。
備注:
此筆記總括了該視頻系列P2-P8主要知識(shí)點(diǎn)。視頻的關(guān)鍵意義在于up的講解通俗易懂很接地氣,剛開(kāi)始理解機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的朋友建議逐級(jí)觀看。
標(biāo)簽: