生成式深度學(xué)習(xí)
鏈接:https://pan.baidu.com/s/1yh5D6WKkmhkIFYuVWA91Ng?pwd=s7gp?
提取碼:s7gp

·學(xué)習(xí)如何通過變分自動(dòng)編碼器改變圖像中人物的面部表情。
·學(xué)習(xí)如何構(gòu)建GAN模型,包括風(fēng)格遷移模型CycleGAN以及音樂生成模型MuseGAN。
·學(xué)習(xí)如何通過循環(huán)生成模型來生成文本,以及如何利用注意力機(jī)制改善模型。
·學(xué)習(xí)如何利用生成模型幫助智能體在強(qiáng)化學(xué)習(xí)環(huán)境中完成任務(wù)。
·探索Transformer(BERT、GPT-2),以及ProGAN和StyleGAN等圖像生成模型的架構(gòu)。
作者簡(jiǎn)介
David Foster是Applied Data Science的聯(lián)合創(chuàng)始人,這是一家數(shù)據(jù)科學(xué)咨詢公司,為客戶提供創(chuàng)新的解決方案。他擁有英國(guó)劍橋三一學(xué)院的數(shù)學(xué)碩士學(xué)位,以及華威大學(xué)運(yùn)籌學(xué)碩士學(xué)位。
精彩書評(píng)
“本書深入淺出地介紹了生成式建模的深度學(xué)習(xí)工具包。如果你是一位富有創(chuàng)造力的編程愛好者,希望在實(shí)際工作中應(yīng)用深度學(xué)習(xí),那么本書是不B二之選。”
——David Ha
Google Brain的研究科學(xué)家
目錄
目錄
前言 .1
第一部分 生成式深度學(xué)習(xí)概述
第1 章 生成建模 11
1.1 什么是生成建模? 11
1.1.1 生成建模與判別建模 13
1.1.2 機(jī)器學(xué)習(xí)的發(fā)展 . 14
1.1.3 生成建模的興起 . 15
1.1.4 生成建模的框架 . 18
1.2 概率生成模型 21
1.2.1 你好,Wrodl ! 24
1.2.2 你的第一個(gè)概率生成模型 . 25
1.2.3 樸素貝葉斯 28
1.2.4 你好,Wrodl !續(xù)篇 . 31
1.3 生成建模的難題 33
表示學(xué)習(xí) 34
1.4 設(shè)置環(huán)境 37
1.5 小結(jié) 40
第2 章 深度學(xué)習(xí) 41
2.1 結(jié)構(gòu)化與非結(jié)構(gòu)化數(shù)據(jù) 41
2.2 深度神經(jīng)網(wǎng)絡(luò) 43
Keras 和TensorFlow 44
2.3 第一個(gè)深度神經(jīng)網(wǎng)絡(luò) . 45
2.3.1 加載數(shù)據(jù). 46
2.3.2 建立模型. 48
2.3.3 編譯模型. 52
2.3.4 訓(xùn)練模型. 54
2.3.5 評(píng)估模型. 55
2.4 改進(jìn)模型 58
2.4.1 卷積層 . 58
2.4.2 批標(biāo)準(zhǔn)化. 64
2.4.3 Dropout 層 . 66
2.4.4 結(jié)合所有層 68
2.5 小結(jié) 71
第3 章 變分自動(dòng)編碼器 73
3.1 畫展 73
3.2 自動(dòng)編碼器 . 76
3.2.1 第一個(gè)自動(dòng)編碼器 . 77
3.2.2 編碼器 . 78
3.2.3 解碼器 . 80
3.2.4 連接編碼器與解碼器 82
3.2.5 分析自動(dòng)編碼器 . 84
3.3 變化后的畫展 87
3.4 構(gòu)建變分自動(dòng)編碼器 . 89
3.4.1 編碼器 . 89
3.4.2 損失函數(shù). 94
3.4.3 分析變分自動(dòng)編碼器 97
3.5 使用VAE 生成面部圖像 98
3.5.1 訓(xùn)練VAE 99
3.5.2 分析VAE . 102
3.5.3 生成新面孔 . 103
3.5.4 隱空間的算術(shù) 104
3.5.5 面部變形 106
3.6 小結(jié) . 107
第4 章 生成對(duì)抗網(wǎng)絡(luò) 108
4.1 神秘獸 108
4.2 生成對(duì)抗網(wǎng)絡(luò)簡(jiǎn)介 111
4.3 第一個(gè)生成對(duì)抗網(wǎng)絡(luò) 112
4.3.1 判別器 113
4.3.2 生成器 115
4.3.3 訓(xùn)練GAN 119
4.4 GAN 面臨的難題 125
4.4.1 損失震蕩 125
4.4.2 模式收縮 126
4.4.3 不提供信息的損失函數(shù) 126
4.4.4 超參數(shù) 127
4.4.5 解決GAN 面臨的難題 . 127
4.5 WGAN 127
4.5.1 Wasserstein 損失 128
4.5.2 利普希茨約束 130
4.5.3 權(quán)重裁剪 131
4.5.4 訓(xùn)練WGAN 132
4.5.5 分析WGAN 133
4.6 WGAN-GP 134
4.6.1 梯度懲罰損失 135
4.6.2 分析WGAN-GP 139
4.7 小結(jié) . 140
第二部分 教機(jī)器繪畫、寫作、作曲和玩游戲
第5 章 繪畫 145
5.1 蘋果和橙子 146
5.2 CycleGAN 149
5.3 第一個(gè)CycleGAN 模型 . 151
5.3.1 簡(jiǎn)介 151
5.3.2 生成器(U-Net) 153
5.3.3 判別器 157
5.3.4 編譯CycleGAN 158
5.3.5 訓(xùn)練CycleGAN 161
5.3.6 分析CycleGAN 162
5.4 創(chuàng)建一個(gè)模仿莫奈作品的CycleGAN . 164
5.4.1 生成器(ResNet) 165
5.4.2 分析CycleGAN 166
5.5 神經(jīng)風(fēng)格遷移 . 168
5.5.1 內(nèi)容損失 169
5.5.2 風(fēng)格損失 172
5.5.3 總方差損失 . 175
5.5.4 運(yùn)行神經(jīng)風(fēng)格遷移 176
5.5.5 分析神經(jīng)風(fēng)格遷移模型 177
5.6 小結(jié) . 178
第6 章 寫作 179
6.1 壞家伙們的文學(xué)社 180
6.2 長(zhǎng)短期記憶網(wǎng)絡(luò) 181
6.3 第一個(gè)LSTM 網(wǎng)絡(luò) 182
6.3.1 分詞 183
6.3.2 建立數(shù)據(jù)集 . 185
6.3.3 LSTM 架構(gòu) . 187
6.3.4 嵌入層 187
6.3.5 LSTM 層 188
6.3.6 LSTM 元胞 . 190
6.4 生成新文本 192
6.5 RNN 擴(kuò)展 . 196
6.5.1 堆疊式循環(huán)網(wǎng)絡(luò) 196
6.5.2 門控制循環(huán)單元 198
6.5.3 雙向元胞 200
6.6 編碼器- 解碼器模型 200
6.7 問答生成器 203
6.7.1 問答數(shù)據(jù)集 . 204
6.7.2 模型架構(gòu) 205
6.7.3 推斷 210
6.7.4 模型的結(jié)果 . 212
6.8 小結(jié) . 214
第7 章 作曲 215
7.1 前提知識(shí) 216
音符 216
查看全部↓
前言/序言
前言
What I cannot create, I do not understand.
——Richard Feynman
創(chuàng)造能力是人類的先天優(yōu)勢(shì)之一。從最早的穴居人開始,我們一直尋找機(jī)會(huì)創(chuàng)造美麗的作品。早期的人類在洞穴的墻壁上描繪野生動(dòng)物和抽象的圖案,他們小心而有條理地將顏料涂到巖石上。浪漫主義時(shí)代的人類創(chuàng)造了柴可夫斯基交響曲,聲波與美麗的旋律以及和聲交織在一起,澎湃而又悲傷的情緒襲上每個(gè)人的心頭。如今這個(gè)時(shí)代,有時(shí)我們會(huì)在深夜匆匆趕往書店,購買一本虛構(gòu)的故事書,因?yàn)樵S許多多的文字凝聚的故事讓我們欲罷不能地翻動(dòng)著書頁,只為了看看主人公接下來的命運(yùn)。
因此,人類開始思考有關(guān)創(chuàng)造力的終極問題:能否創(chuàng)造出本身具有創(chuàng)造力的東西?
這便是生成建模旨在解決的問題。隨著方法與技術(shù)的日益發(fā)展,如今我們能夠讓機(jī)器按照一定的風(fēng)格繪制藝術(shù)畫作,撰寫內(nèi)容連貫的長(zhǎng)篇巨作,創(chuàng)作悅耳的樂曲,并通過生成想象的場(chǎng)景制訂出高端游戲制勝策略。這僅僅是生成式革命的開端,我們別無選擇,唯有尋找有關(guān)創(chuàng)造力難題的答案,并最終挑戰(zhàn)人類。
長(zhǎng)話短說,現(xiàn)在就是學(xué)習(xí)生成建模的最佳時(shí)機(jī),那么下面就讓我們開始吧!