MATLAB深度學(xué)習(xí)之LSTM 參數(shù)理解

參數(shù)理解

500個(gè)單詞,每個(gè)單詞都用一個(gè)32維的向量表示
word embedding的作用
輸入就是一部電影的評(píng)論
500*32 矩陣來(lái)表示
LSTM的大小為32
就是LSTM輸入,或者輸出
C或者H的維度,H的承接的狀態(tài)
輸出Ht的維度
全連接層大小,打分就是好壞,所以是1
shpe(x)表示輸入的意思,每個(gè)單詞的維度是32
橫著有500個(gè)單詞,ht最后一個(gè)狀態(tài),
輸入層500*32
32就是輸入層的大小
500表示lstm延橫向擴(kuò)充了500次
由輸入矩陣的列來(lái)控制,有多少列,擴(kuò)展了500次
可以對(duì)lstm的原理
shape(h)和shape(x)是碰巧一樣的,可以不一樣

輸出500*32來(lái)表示,32維的向量表示
上一層的輸出,32 === 表示網(wǎng)絡(luò)層的大小,H是32,為什么只有32,因?yàn)檫x擇的不是sequence,
dense層全連接層
32*(32+32)+32
h就是輸入門的大小,行就是H,列就是相加
32是偏執(zhí)項(xiàng)
每個(gè)w都要加上b
因?yàn)橛?個(gè),所以就是8320個(gè)
深度擴(kuò)展
LSTM層大?。喝龑泳鶠?2

應(yīng)該是這個(gè),只有一個(gè)

embedding 500個(gè)單詞,32維
lstm1有500的s
前兩層都是sequence,最后一個(gè)是last
500個(gè)輸入,所以lstm也有500個(gè)輸出,

這個(gè)32取決于lstm層的大小
層的大小就是lstm輸出的大小
就是ht


這個(gè)是第二層lstm的大小
最后一層
dense就是全連接層就是1
MATLAB參數(shù)
1、訓(xùn)練參數(shù)training Options
MaxEpochs:將訓(xùn)練集完整運(yùn)行多少次
MiniBatchSize:最小批次
每一次喂入多少數(shù)據(jù)集,這個(gè)參數(shù)也是控制權(quán)值更新的
2、序列輸入層

inputsize :輸入?yún)?shù)的個(gè)數(shù)
就是shape(x)
最小長(zhǎng)度,數(shù)據(jù)最少的輸入長(zhǎng)度,這個(gè)值控制輸入數(shù)據(jù)長(zhǎng)度,不符合報(bào)錯(cuò)
序列數(shù)據(jù)的輸入長(zhǎng)度是通過(guò)打包為元胞數(shù)組控制的,shape(data)=2*100 表示12個(gè)輸入特征,100個(gè)事件步

LSTM層
channel:輸入特征數(shù)
batch:輸入樣本數(shù)
time: 事件展開(kāi)步

如果是12*100
channel = 12
batch = 1
時(shí)間展開(kāi)步,輸入層的長(zhǎng)度

channel 12
batch 5
time 20

Inputsize:自動(dòng)
NumHidden:128,表示shape(h)=128

網(wǎng)絡(luò)訓(xùn)練參數(shù)
輸入層是12 shape(x)=12
shape(h) = 128
bias(h) = 128 偏執(zhí)項(xiàng),和h一樣大
parnum = 4*{shape(h)

時(shí)間展開(kāi)步 影響運(yùn)行時(shí)間,次數(shù),和訓(xùn)練參數(shù)沒(méi)有關(guān)系
輸入層的20(或其他數(shù)據(jù))來(lái)控制的

12 shape(x)