人工智能算法 卷3 深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)
鏈接:pan.baidu.com/s/1PimnaQreGtAEclYZPaC8Kw?pwd=wyp9?
提取碼:wyp9

自早期以來,神經(jīng)網(wǎng)絡(luò)就一直是人工智能的支柱。現(xiàn)在,令人興奮的新技術(shù)(例如深度學(xué)習(xí)和卷積)正在將神經(jīng)網(wǎng)絡(luò)帶入一個全新的方向。在本書中,我們將演示各種現(xiàn)實世界任務(wù)中的神經(jīng)網(wǎng)絡(luò),例如圖像識別和數(shù)據(jù)科學(xué)。我們研究了當(dāng)前的神經(jīng)網(wǎng)絡(luò)技術(shù),包括ReLU 激活、隨機梯度下降、交叉熵、正則化、Dropout 及可視化等。
《人工智能算法 卷3 深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)(全彩印刷)》
第 1 章 神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 1
1.1 神經(jīng)元和層 2
1.2 神經(jīng)元的類型 5
1.3 激活函數(shù) 10
1.4 修正線性單元(ReLU)13
1.5 神經(jīng)網(wǎng)絡(luò)邏輯 19
1.6 本章小結(jié) 22
第 2 章 自組織映射 23
2.1 自組織映射 24
2.2 本章小結(jié) 33
第 3 章 Hopfield 網(wǎng)絡(luò)和玻爾茲曼機34
3.1 Hopfield 神經(jīng)網(wǎng)絡(luò) 34
3.2 Hopfield-Tank 網(wǎng)絡(luò) 41
3.3 玻爾茲曼機 42
3.4 應(yīng)用玻爾茲曼機 45
3.5 本章小結(jié) 51
第 4 章 前饋神經(jīng)網(wǎng)絡(luò) 53
4.1 前饋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) 54
4.2 計算輸出 56
4.3 初始化權(quán)重 60
4.4 徑向基函數(shù)網(wǎng)絡(luò) 63
4.5 規(guī)范化數(shù)據(jù) 67
4.6 本章小結(jié) 75
第 5 章 訓(xùn)練與評估 77
5.1 評估分類 78
5.2 評估回歸 88
5.3 模擬退火訓(xùn)練 89
5.4 本章小結(jié) 92
第 6 章 反向傳播訓(xùn)練 93
6.1 理解梯度 93
6.2 計算輸出節(jié)點增量 98
6.3 計算剩余節(jié)點增量 99
6.4 激活函數(shù)的導(dǎo)數(shù) 100
6.5 應(yīng)用反向傳播 103
6.6 本章小結(jié) 108
第 7 章 其他傳播訓(xùn)練 110
7.1 彈性傳播 110
7.2 RPROP 參數(shù) 111
7.3 數(shù)據(jù)結(jié)構(gòu) 113
7.4 理解 RPROP 114
7.5 Levenberg-Marquardt 算法 116
7.6 Hessian 矩陣的計算 119
7.7 具有多個輸出的 LMA 120
7.8 LMA 過程概述 122
7.9 本章小結(jié) 122
第 8 章 NEAT,CPPN 和 HyperNEAT 124
8.1 NEAT 網(wǎng)絡(luò) 125
8.2 CPPN 網(wǎng)絡(luò) 134
8.3 HyperNEAT 網(wǎng)絡(luò) 138
8.4 本章小結(jié) 142
第 9 章 深度學(xué)習(xí) 143
9.1 深度學(xué)習(xí)組件 143
9.2 部分標(biāo)記的數(shù)據(jù) 144
9.3 修正線性單元 145
9.4 卷積神經(jīng)網(wǎng)絡(luò) 145
9.5 神經(jīng)元 Dropout 146
9.6 GPU 訓(xùn)練 147
9.7 深度學(xué)習(xí)工具 149
9.8 深度信念神經(jīng)網(wǎng)絡(luò) 152
9.9 本章小結(jié) 164
第 10 章 卷積神經(jīng)網(wǎng)絡(luò) 165
10.1 LeNET-5 166
10.2 卷積層 168
10.3 最大池層 170
10.4 稠密層 172
10.5 針對 MNIST 數(shù)據(jù)集的 ConvNets 172
10.6 本章小結(jié) 174
第 11 章 剪枝和模型選擇 175
11.1 理解剪枝 176
11.2 剪枝算法 177
11.3 模型選擇 179
11.4 本章小結(jié) 185
第 12 章 Dropout 和正則化 186
12.1 L1 和 L2 正則化 187
12.2 Dropout 層 190
12.3 使用 Dropout 194
12.4 本章小結(jié) 195
第 13 章 時間序列和循環(huán)網(wǎng)絡(luò) 197
13.1 時間序列編碼 198
13.2 簡單循環(huán)神經(jīng)網(wǎng)絡(luò) 204
13.3 本章小結(jié) 213
第 14 章 架構(gòu)神經(jīng)網(wǎng)絡(luò) 214
14.1 評估神經(jīng)網(wǎng)絡(luò) 215
14.2 訓(xùn)練參數(shù) 215
14.3 常規(guī)超參數(shù) 220
14.4 LeNet-5 超參數(shù) 223
14.5 本章小結(jié) 224
第 15 章 可視化 226
15.1 混淆矩陣 227
15.2 t-SNE 降維 229
15.3 本章小結(jié) 236
第 16 章 用神經(jīng)網(wǎng)絡(luò)建?!?37
16.0.1 挑戰(zhàn)賽的經(jīng)驗 241
16.0.2 挑戰(zhàn)賽取勝的方法 242
16.0.3 我們在挑戰(zhàn)賽中的方法 244
16.1 用深度學(xué)習(xí)建模 245
16.2 本章小結(jié) 250
附錄 A 示例代碼使用說明 252
A.1 系列圖書簡介 252
A.2 保持更新 252
A.3 獲取示例代碼 253
A.3.1 下載壓縮文件 253
A.3.2 克隆 Git 倉庫 254
A.4 示例代碼的內(nèi)容 255
A.5 如何為項目做貢獻(xiàn) 257
參考資料 259