學(xué)習(xí)分享一年,對(duì)神經(jīng)網(wǎng)絡(luò)的理解全都在這40分鐘里了

量綱不同的變量可進(jìn)行變換: 權(quán)重的引入
權(quán)重系數(shù), 偏置系數(shù)
決策/預(yù)測(cè): 根據(jù)分界線進(jìn)行判斷
訓(xùn)練/學(xué)習(xí): 找最優(yōu)分界線. 機(jī)器學(xué)習(xí)的核心.
機(jī)器學(xué)習(xí)與動(dòng)態(tài)規(guī)劃/貪心算法等經(jīng)典算法最大的不同: 不需要對(duì)新數(shù)據(jù)都進(jìn)行同樣復(fù)雜度的計(jì)算, 而是先進(jìn)行異常復(fù)雜的訓(xùn)練和學(xué)習(xí), 只需要對(duì)新數(shù)據(jù)進(jìn)行簡(jiǎn)單計(jì)算. 總體上可能沒(méi)有減少計(jì)算復(fù)雜度, 但是決策和訓(xùn)練的分工帶來(lái)了更大的應(yīng)用效能.
確定一個(gè)分界線好壞的判斷標(biāo)準(zhǔn)(不僅對(duì)已知數(shù)據(jù)最好,也要對(duì)未來(lái)數(shù)據(jù)最好)→根據(jù)該標(biāo)準(zhǔn)尋找最優(yōu)分界線/次優(yōu)分界線
機(jī)器學(xué)習(xí)的目的: 不是訓(xùn)練而是預(yù)測(cè)
- 如何確定判斷標(biāo)準(zhǔn): 引入額外公設(shè)(策略)對(duì)函數(shù)進(jìn)行修飾. f函數(shù)值是對(duì)數(shù)據(jù)所有不同維度公度后的結(jié)果, 改結(jié)果只有數(shù)值差異, 沒(méi)有現(xiàn)實(shí)意義. 公設(shè)則對(duì)公度結(jié)果進(jìn)行修飾, 為其賦予現(xiàn)實(shí)意義
間隔越大, 存放新數(shù)據(jù)的空間越大
點(diǎn)到直線的距離, 找讓間隔函數(shù)最大的系數(shù), 用偏置系數(shù)確定唯一分界線
sigmoid將函數(shù)限制到(0,1), 進(jìn)而將函數(shù)值看成概率值
概率最大最好
似然值最大最好(變動(dòng)的不是隨機(jī)變量X而是條件W)

模型: 討論對(duì)數(shù)據(jù)分類的曲線的復(fù)雜情況
分類和回歸在模型上沒(méi)有本質(zhì)區(qū)別
NN: 可以提高模型復(fù)雜度, 復(fù)雜性來(lái)自激活函數(shù)


- 計(jì)算判斷標(biāo)準(zhǔn)下對(duì)應(yīng)的系數(shù)(算法)
神經(jīng)網(wǎng)絡(luò)的算法幾乎是特指梯度下降法