最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

深度學(xué)習(xí)——基于PyTorch的實現(xiàn)

2023-08-04 23:24 作者:劉姥姥看人間  | 我要投稿

鏈接:https://pan.baidu.com/s/1-QibZOR59kmzREP3S1f0mg?pwd=bimq?

提取碼:bimq

第1章 導(dǎo) 論
1.1 人工智能
1.1.1 人工智能的發(fā)展歷史
1.1.2 人工智能的流派
1.2 機器學(xué)習(xí)
1.3 深度學(xué)習(xí)
1.3.1 深度學(xué)習(xí)的概念
1.3.2 深度學(xué)習(xí)與機器學(xué)習(xí)、人工智能的關(guān)系
1.3.3 深度學(xué)習(xí)的歷史溯源
1.3.4 深度學(xué)習(xí)與回歸分析
1.4 深度學(xué)習(xí)適用的領(lǐng)域
1.4.1 圖像識別
1.4.2 語音識別
1.4.3 自然語言處理
1.4.4 棋牌競技
1.5 常用的深度學(xué)習(xí)框架
1.5.1 Caffe
1.5.2 TensorFlow
1.5.3 PyTorch
1.5.4 MXNet
1.5.5 Keras
1.6 本書使用的數(shù)據(jù)和代碼說明
第2章 神經(jīng)網(wǎng)絡(luò)的張量與數(shù)學(xué)基礎(chǔ)
2.1 張 量
2.1.1 張量的定義
2.1.2 張量的數(shù)據(jù)類型
2.1.3 張量的創(chuàng)建方式
2.1.4 應(yīng)用:圖像數(shù)據(jù)轉(zhuǎn)張量
2.2 張量的操作
2.2.1 獲取和改變張量形狀
2.2.2 提取張量中的元素
2.2.3 張量的拼接與拆分
2.3 張量的運算
2.3.1 基本運算
2.3.2 統(tǒng)計相關(guān)運算
2.3.3 矩陣運算
2.4 深度學(xué)習(xí)的導(dǎo)數(shù)基礎(chǔ)
2.4.1 單變量函數(shù)和導(dǎo)數(shù)
2.4.2 多變量函數(shù)和偏導(dǎo)數(shù)
2.4.3 復(fù)合函數(shù)和鏈式求導(dǎo)法則
2.5 梯度下降算法的含義與公式
2.6 本章小結(jié)
第3章 前饋神經(jīng)網(wǎng)絡(luò)
3.1 前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和常見激活函數(shù)
3.1.1 神經(jīng)元
3.1.2 Sigmoid函數(shù)
3.1.3 Tanh函數(shù)
3.1.4 ReLU函數(shù)
3.1.5 前饋神經(jīng)網(wǎng)絡(luò)的構(gòu)成
3.2 損失函數(shù)的設(shè)置
3.3 梯度下降算法
3.3.1 梯度下降算法的直觀理解與定義
3.3.2 小批量梯度下降算法
3.3.3 動量梯度下降算法
3.3.4 Nesterov梯度加速算法
3.3.5 自適應(yīng)梯度算法
3.3.6 AdaDelta算法
3.3.7 均方根加速算法
3.3.8 自適應(yīng)矩估計算法
3.4 反向傳播算法
3.4.1 單個神經(jīng)元的反向傳播算法示例
3.4.2 兩層神經(jīng)網(wǎng)絡(luò)的反向傳播算法示例
3.5 過擬合
3.5.1 偏差-方差分解
3.5.2 正則化
3.5.3 權(quán)重衰減
3.5.4 丟棄法
3.6 本章小結(jié)
第4章 神經(jīng)網(wǎng)絡(luò)的PyTorch實現(xiàn)
4.1 線性回歸案例:顏值打分
4.1.1 線性回歸基礎(chǔ)
4.1.2 案例:顏值打分
4.2 邏輯回歸案例:性別識別
4.2.1 邏輯回歸基礎(chǔ)
4.2.2 案例:性別識別
4.3 softmax回歸案例:Fashion-MNIST數(shù)據(jù)集分類
4.3.1 softmax回歸基礎(chǔ)
4.3.2 案例:Fashion-MNIST數(shù)據(jù)集分類
4.4 本章小結(jié)
第5章 卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
5.1 卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)
5.2 卷積與池化的通俗理解
5.2.1 卷積的通俗理解
5.2.2 池化的通俗理解
5.3 卷積操作
5.3.1 卷積的定義
5.3.2 填充與步長
5.3.3 多通道卷積
5.4 池化操作
5.4.1 單通道池化
5.4.2 多通道池化
5.5 CNN模型實戰(zhàn):手寫數(shù)字識別
5.5.1 數(shù)據(jù)準備
5.5.2 構(gòu)建數(shù)據(jù)讀取器
5.5.3 LeNet-5網(wǎng)絡(luò)構(gòu)建及代碼實現(xiàn)
5.5.4 模型訓(xùn)練
5.5.5 第一層卷積核與特征圖的可視化
5.5.6 第二層卷積核與特征圖的可視化
5.6 本章小結(jié)
第6章 經(jīng)典CNN模型介紹
6.1 AlexNet模型原理與實現(xiàn)
6.1.1 AlexNet網(wǎng)絡(luò)結(jié)構(gòu)
6.1.2 AlexNet創(chuàng)新點
6.1.3 案例:AlexNet用于CIFAR10數(shù)據(jù)集的圖片分類
6.1.4 AlexNet網(wǎng)絡(luò)構(gòu)建及代碼實現(xiàn)
6.1.5 模型訓(xùn)練
6.2 VGG模型原理與實現(xiàn)
6.2.1 VGG網(wǎng)絡(luò)結(jié)構(gòu)
6.2.2 案例:VGG16用于CIFAR10數(shù)據(jù)集的圖片分類
6.2.3 VGG網(wǎng)絡(luò)構(gòu)建及代碼實現(xiàn)
6.2.4 模型訓(xùn)練
6.3 Inception V1模型原理與實現(xiàn)
6.3.1 Inception V1網(wǎng)絡(luò)結(jié)構(gòu)
6.3.2 Inception V1創(chuàng)新點
6.3.3 Inception V1網(wǎng)絡(luò)構(gòu)建及代碼實現(xiàn)
6.3.4 模型訓(xùn)練
6.4 ResNet模型原理與實現(xiàn)
6.4.1 ResNet網(wǎng)絡(luò)結(jié)構(gòu)
6.4.2 ResNet網(wǎng)絡(luò)構(gòu)建及代碼實現(xiàn)
6.4.3 模型訓(xùn)練
6.5 批量歸一化
6.5.1 批量歸一化的提出動機
6.5.2 批量歸一化的主要思想
6.5.3 案例:帶有批量歸一化的模型用于貓狗數(shù)據(jù)集圖片分類
6.6 數(shù)據(jù)增強
6.6.1 數(shù)據(jù)增強的核心思想
6.6.2 案例:帶有數(shù)據(jù)增強的模型用于貓狗數(shù)據(jù)集圖片分類
6.7 遷移學(xué)習(xí)
6.7.1 遷移學(xué)習(xí)的由來
6.7.2 遷移學(xué)習(xí)原理
6.7.3 經(jīng)典案例:遷移學(xué)習(xí)如何精準定位貧困地區(qū)
6.7.4 PyTorch案例:遷移學(xué)習(xí)用于貓狗數(shù)據(jù)集圖片分類
6.8 本章小結(jié)
第7章 序列模型
7.1 詞向量
7.1.1 詞匯表征與語義相關(guān)性
7.1.2 Word2Vec原理概述
7.1.3 Word2Vec代碼實現(xiàn)
7.2 RNN模型
7.2.1 RNN的源起:序列預(yù)測問題
7.2.2 RNN模型原理
7.2.3 RNN模型實例:機器作詩
7.3 LSTM模型
7.3.1 RNN模型的改進:增加長期狀態(tài)變量
7.3.2 LSTM模型簡介
7.3.3 LSTM模型實例:自動樂曲生成
7.4 機器翻譯
7.4.1 初級機器翻譯技術(shù)
7.4.2 回歸分析視角
7.4.3 encoder-decoder模型
7.4.4 機器翻譯實例:中英文翻譯
7.5 本章小結(jié)
第8章 深度生成模型
8.1 自編碼器
8.1.1 自編碼器簡介
8.1.2 自編碼器的應(yīng)用案例:圖像去噪
8.2 變分自編碼器
8.2.1 生成模型與分布變換
8.2.2 VAE的基本原理
8.2.3 VAE圖像生成示例
8.3 生成式對抗網(wǎng)絡(luò)
8.3.1 GAN原理簡介
8.3.2 GAN示例:訓(xùn)練DCGAN
8.4 本章小結(jié)

查看全部↓

精彩書摘

對于深度學(xué)習(xí),你是否充滿好奇?是否充滿期待?你是否擔(dān)心由于自己基礎(chǔ)欠缺而導(dǎo)致無法入門深度學(xué)習(xí)領(lǐng)域?很慚愧地說,五年前當(dāng)我第一次接觸深度學(xué)習(xí)時,我對這三個問題的回答都是“是的”。但是作為一名奮戰(zhàn)在教學(xué)一線的青年教師,我總是對新的領(lǐng)域充滿求知欲,也正是帶著這份好奇,我開始收集市面上與深度學(xué)習(xí)相關(guān)的書籍進行研讀,這些書籍非常棒,但遺憾的是,它們可能不適合作為教材,尤其不適合非計算機背景的學(xué)生學(xué)習(xí),而這部分學(xué)生(例如一些經(jīng)管類院系下設(shè)的數(shù)據(jù)科學(xué)專業(yè)的學(xué)生)正日漸成為深度學(xué)習(xí)的最主要力量。受現(xiàn)有深度學(xué)習(xí)書籍的啟發(fā),并結(jié)合多年的教學(xué)經(jīng)驗,我深刻地感受到需要編寫一本適合非計算機專業(yè)本科生的深度學(xué)習(xí)入門教材。它既要重視深度學(xué)習(xí)的理論基礎(chǔ),又要通俗易懂,而且還要有助于提高學(xué)生訓(xùn)練(調(diào)優(yōu))模型的能力。這就是本書寫作的初衷。本書由淺入深地介紹深度學(xué)習(xí)的理論原理并搭配生動有趣的案例,將理論與實踐相結(jié)合。

前言/序言

  2022年12月底的一天,我的朋友圈突然被一個名叫ChatGPT的人工智能產(chǎn)品霸屏了,人們用它來寫文章、寫詩、寫工作周報甚至寫程序代碼。一時間人們圍繞它展開了熱烈的討論,有人認為AI無所不能,很多人可能會面臨失業(yè)問題,也有人認為,雖然ChatGPT寫出的東西在很大程度上能以假亂真,但是還無法達到人類的水平。上一次大家如此津津樂道地討論人工智能,大概是2016年AlphaGo橫空出世的時候。從那時起,各大媒體爭相報道人工智能時代的到來。對于大眾而言,對人工智能最深刻的印象,可能來自AlphaGo,來自人臉識別、語音識別、自動翻譯等有趣的應(yīng)用。其實,當(dāng)我們提到人工智能時,大多數(shù)時候是指這些應(yīng)用背后的核心技術(shù),即深度學(xué)習(xí)。


深度學(xué)習(xí)——基于PyTorch的實現(xiàn)的評論 (共 條)

分享到微博請遵守國家法律
新绛县| 银川市| 井陉县| 江陵县| 安达市| 宜昌市| 宣城市| 临洮县| 应用必备| 绿春县| 称多县| 沾化县| 黔西县| 乐至县| 宝鸡市| 马龙县| 正镶白旗| 凌海市| 博白县| 武安市| 阿图什市| 漳浦县| 永吉县| 五原县| 丹巴县| 平顺县| 潮安县| 潮州市| 若羌县| 汉沽区| 莆田市| 龙州县| 鲁甸县| 苏尼特右旗| 洛阳市| 宁安市| 义马市| 龙州县| 瓦房店市| 威信县| 东山县|