PyTorch高級機器學(xué)習(xí)實戰(zhàn)
鏈接:https://pan.baidu.com/s/1JNwiRVQOzYWXoLfR_u4hmg?pwd=4g1h?
提取碼:4g1h

本書講解了經(jīng)典的高級機器學(xué)習(xí)算法原理與知識,包括常見的監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、概率圖模型、核方法、深度神經(jīng)網(wǎng)絡(luò),以及強化學(xué)習(xí)等內(nèi)容,同時更強調(diào)動手實踐。所有算法均利用PyTorch計算框架進行實現(xiàn),并且在各章節(jié)配備實戰(zhàn)環(huán)節(jié),內(nèi)容涵蓋點擊率預(yù)估、異常檢測、概率圖模型變分推斷、高斯過程超參數(shù)優(yōu)化、深度強化學(xué)習(xí)智能體訓(xùn)練等內(nèi)容。
本書附贈所有案例的源代碼及各類學(xué)習(xí)資料來源,適合具有一定編程基礎(chǔ)的人工智能愛好者學(xué)習(xí),也是相關(guān)從業(yè)者和研究人員的學(xué)習(xí)指南。
作者簡介
王宇龍,清華大學(xué)計算機博士,大型互聯(lián)網(wǎng)公司算法專家,在國際學(xué)術(shù)會議及期刊發(fā)表過多篇論文。曾出版書籍《PyTorch深度學(xué)習(xí)入門與實戰(zhàn)》,知乎“機器學(xué)習(xí)”話題優(yōu)秀回答者(@Young)。
目錄
前言
第1章 機器學(xué)習(xí)概述/
1.1 機器學(xué)習(xí)簡介/
1.1.1 機器學(xué)習(xí)的含義/
1.1.2 機器學(xué)習(xí)概述/
1.1.3 不同類型的機器學(xué)習(xí)算法/
1.2 數(shù)據(jù)處理/
1.2.1 數(shù)據(jù)特征分類及表示/
1.2.2 數(shù)據(jù)預(yù)處理/
1.2.3 數(shù)據(jù)缺失處理/
1.2.4 特征衍生和交叉/
1.2.5 特征篩選/
1.3 衡量標(biāo)準(zhǔn)/
1.3.1 模型評估指標(biāo)/
1.3.2 數(shù)據(jù)集劃分/
1.3.3 超參數(shù)優(yōu)化/
1.4 優(yōu)化目標(biāo)/
1.4.1 損失函數(shù)/
1.4.2 梯度下降優(yōu)化/
1.4.3 受約束優(yōu)化:Lagrange函數(shù)/
1.5 實戰(zhàn):簡單模型實現(xiàn)Titanic乘客生存概率預(yù)測/
1.5.1 問題描述與數(shù)據(jù)特征/
1.5.2 簡單屬性分類模型實現(xiàn)預(yù)測/
第2章 PyTorch基本操作介紹/
2.1 PyTorch簡介/
2.2 核心概念:Tensor/
2.2.1 Tensor基本操作/
2.2.2 基本數(shù)學(xué)運算/
2.2.3 索引分片操作/
2.2.4 類成員方法/
2.3 自動求導(dǎo)(Autograd)/
2.3.1 可微分張量/
2.3.2 Function:實現(xiàn)自動微分的基礎(chǔ)/
2.4 神經(jīng)網(wǎng)絡(luò)核心模塊:torch.nn/
2.4.1 nn.Module概述/
2.4.2 函數(shù)式操作nn.functional/
2.5 優(yōu)化器(optimizer)/
2.5.1 optimizer概述/
2.5.2 學(xué)習(xí)率調(diào)節(jié)/
2.5.3 經(jīng)典優(yōu)化器介紹/
2.6 數(shù)據(jù)加載/
2.6.1 Dataset與DataLoader介紹/
2.6.2 預(yù)處理變換torchvision.transforms/
2.7 高級操作/
2.7.1 GPU運算/
2.7.2 利用C++實現(xiàn)自定義算子/
2.8 實戰(zhàn):Wide & Deep模型實現(xiàn)Criteo點擊率預(yù)估/
2.8.1 問題定義與數(shù)據(jù)特征/
2.8.2 Wide & Deep模型介紹/
2.8.3 完整實驗流程/
第3章 監(jiān)督學(xué)習(xí)/
3.1 線性回歸(Linear Regression)/
3.1.1 小二乘法(Least Square Method)/
3.1.2 嶺回歸(Ridge Regression)/
3.1.3 貝葉斯線性回歸(Bayesian Linear Regression)/
3.2 邏輯回歸(Logistic Regression)/
3.2.1 二分類邏輯回歸/
3.2.2 多分類Softmax回歸/
3.2.3 貝葉斯邏輯回歸(Bayesian Logistic Regression)/
3.3 支持向量機(Support Vector Machine,SVM)/
3.3.1 線性可分下SVM的定義/
3.3.2 利用隨機梯度下降求解/
3.3.3 凸優(yōu)化簡介/
3.3.4 SVM對偶問題表示/
3.3.5 梯度下降法求解對偶問題/
3.3.6 從Hard SVM擴展到Soft SVM/
3.3.7 支持向量回歸(Support Vector Regression,SVR)/
3.3.8 帶有松弛變量的SVR及對偶優(yōu)化方法/
3.4 決策樹模型(Decision Tree)/
3.4.1 構(gòu)建單個樹模型/
3.4.2 集成學(xué)習(xí)(Ensemble Learning)/
3.5 K近鄰算法(K Nearest Neighbors,KNN)/
3.6 實戰(zhàn):復(fù)雜模型實現(xiàn)Titanic旅客生存概率預(yù)測/
3.6.1 Titanic數(shù)據(jù)集特征處理/
3.6.2 多種模型預(yù)測性能對比/
第4章 無監(jiān)督學(xué)習(xí)/
4.1 聚類方法(Clustering Method)/
4.1.1 KMeans聚類/
4.1.2 譜聚類(Spectral Clustering)/
4.1.3 聚合聚類(Agglomerative Clustering)/
4.2 密度估計(Density Estimation)/
4.2.1 高斯混合模型(Gaussian Mixture Model)/
4.2.2 期望大化算法(Expectation Maximization,EM)/
4.3 降維與嵌入(Dimension Reduction & Embedding)/
4.3.1 主成分分析(Principal Component Analysis,PCA)/
4.3.2 局部線性嵌入(Locally Linear Embedding,LLE)/
4.3.3 隨機鄰居嵌入算法(tSNE)/
4.4 實戰(zhàn):無監(jiān)督方法實現(xiàn)異常檢測(Anomaly Detection)/
4.4.1 異常檢測問題與應(yīng)用/
4.4.2 實現(xiàn)基于PCA的異常檢測方法/
4.4.3 實現(xiàn)基于Mahalanobis距離的異常檢測方法/
4.4.4 實現(xiàn)基于聚類的局部異常因子檢測方法/
第5章 PyTorch高級機器學(xué)習(xí)實戰(zhàn)概率圖模型/
5.1 有向圖:貝葉斯網(wǎng)絡(luò)(Bayesian Network)/
5.1.1 有向圖的概率分解/
5.1.2 條件獨立性(Conditional Independence)/
5.2 無向圖:馬爾可夫隨機場(Markov Random Field,MRF)/
5.2.1 無向圖的概率分解/
5.2.2 具體應(yīng)用:圖像去噪(Image Denoising)/
5.3 隱馬爾可夫模型(Hidden Markov Model,HMM)/
5.3.1 隱馬爾可夫模型介紹/
5.3.2 前向后向算法(ForwardBackward Algorithm)/
5.3.3 放縮提升運算穩(wěn)定性/
5.3.4 代碼實現(xiàn)/
5.4 變分推斷(Variational Inference,VI)/
5.4.1 后驗分布優(yōu)化與ELBO/
5.4.2 黑盒變分推斷算法(BlackBox Variational Inference,BBVI)/
5.5 蒙特卡羅采樣(Monte Carlo Sampling)/
5.5.1 拒絕采樣(Rejection Sampling)/
5.5.2 馬爾可夫鏈蒙特卡羅(Markov Chain Monte Carlo)/
5.5.3 吉布斯采樣(Gibbs Sampling)/
5.5.4 哈密頓蒙特卡羅采樣(Hamiltonian Monte Carlo,HMC)/
5.6 實戰(zhàn):變分高斯混合模型(Variational Gaussian Mixture Model)/
5.6.1 擴展GMM:貝葉斯高斯混合模型(Bayesian Gaussian Mixture Model)/
5.6.2 變分推斷近似/
5.6.3 代碼實現(xiàn)/
第6章 核方法/
6.1 核函數(shù)及核技巧/
6.2核化KMeans算法(Kernel KMeans)/
6.2.1 KMeans算法回顧/
6.2.2 具體實現(xiàn)/
6.3 核化支持向量機(Kernel SVM)/
6.3.1 SVM對偶問題及核函數(shù)表示/
6.3.2 核化支持向量回歸(Kernel SVR)/
6.4 核化主成分分析 (Kernel PCA,KPCA)/
6.4.1 回顧PCA及核化表示/
6.4.2 核中心化技巧及實現(xiàn)/
6.5 高斯過程(Gaussian Process,GP)/
6.5.1 高斯過程定義及基本性質(zhì)/
6.5.2 核函數(shù)參數(shù)選取優(yōu)化/
6.6 實戰(zhàn):利用高斯過程進行超參數(shù)優(yōu)化/
6.6.1 超參數(shù)優(yōu)化(Hyperparameter Optimization)/
6.6.2 具體實現(xiàn)/
第7章 深度神經(jīng)網(wǎng)絡(luò)/
7.1 神經(jīng)網(wǎng)絡(luò)(Neural Network)/
7.1.1 基本算子操作/
7.1.2 常見網(wǎng)絡(luò)結(jié)構(gòu)/
7.1.3 網(wǎng)絡(luò)訓(xùn)練/
7.2 變分自編碼器(Variational AutoEncoder,VAE)/
7.2.1 多種自編碼器介紹/
7.2.2 變分自編碼器/
7.3 深度生成模型(Deep Generative Model,DGM)/
7.3.1 受限玻爾茲曼機(Restricted Boltzmann Machine,RBM)/
7.3.2 生成式對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)/
7.4 實戰(zhàn):利用CycleGAN進行圖片風(fēng)格轉(zhuǎn)換/
7.4.1 CycleGAN模型介紹/
7.4.2 模型實現(xiàn)/
第8章 強化學(xué)習(xí)/
8.1 經(jīng)典強化學(xué)習(xí)介紹/
8.1.1 基本概念介紹/
8.1.2 強化學(xué)習(xí)環(huán)境OpenAI Gym/
8.2 馬爾可夫決策過程(Markov Decision Process,MDP)/
8.2.1 MDP定義及貝爾曼優(yōu)方程/
8.2.2 策略迭代(Policy Iteration)和價值迭代(Value Iteration)/
8.2.3 蒙特卡羅采樣學(xué)習(xí)(Monte Carlo Learning)/
8.2.4 時序差分學(xué)習(xí)(Temporal Difference Learning,TDLearning)/
8.3 基于Q價值函數(shù)的深度強化學(xué)習(xí)/
8.3.1 深度Q網(wǎng)絡(luò)(Deep QNetwork,DQN)/
8.3.2 其他DQN改進模型/
8.4 基于策略優(yōu)化的深度強化學(xué)習(xí)/
8.4.1 策略梯度算法(Policy Gradient)/
8.4.2 Advantage ActorCritic(A2C)算法/
8.4.3 近鄰策略優(yōu)化法(Proximal Policy Optimization,PPO)/
8.4.4 深度確定性策略梯度算法(Deep Deterministic Policy Gradient,DDPG)/
8.4.5 Soft Actor Critic(SAC)算法/
8.5 實戰(zhàn):在Atari游戲環(huán)境中進行深度強化學(xué)習(xí)評測/
8.5.1 Atari游戲環(huán)境及預(yù)處理方式/
8.5.2 多種深度強化學(xué)習(xí)性能比較/
參考文獻/
查看全部↓
前言/序言
隨著人工智能和機器學(xué)習(xí)的蓬勃發(fā)展,相關(guān)算法和技術(shù)已經(jīng)廣泛運用到諸多行業(yè),大量的研究者和各行業(yè)人員也投入機器學(xué)習(xí)的研究與開發(fā)中。
掌握高級機器學(xué)習(xí)算法原理,并能夠根據(jù)不同情況實現(xiàn)靈活運用,是相關(guān)從業(yè)者必備的核心技能,也能夠幫助自身提高理論水平,實現(xiàn)與眾不同的創(chuàng)造成果。
本書主要介紹的是機器學(xué)習(xí)領(lǐng)域經(jīng)典的算法內(nèi)容,以及相關(guān)原理所涉及的基礎(chǔ)知識。這部分內(nèi)容一般出現(xiàn)在研究生階段的進階課程中,是深入研究機器學(xué)習(xí)的必備知識。同時本書的一大特色是不止停留在單純的理論算法介紹層面,更強調(diào)動手實踐。為了方便讀者學(xué)習(xí),本書采用了PyTorch這一當(dāng)前最流行的機器學(xué)習(xí)框架,實現(xiàn)所有的算法過程。PyTorch之前更是應(yīng)用在深度學(xué)習(xí)領(lǐng)域,可以實現(xiàn)深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練運算等過程。本書則利用了其完善的科學(xué)運算矩陣庫,靈活的自動微分求導(dǎo)引擎,以及方便的GPU加速運算等功能,向讀者展示PyTorch框架在機器學(xué)習(xí)領(lǐng)域也有著廣泛的應(yīng)用。
全書分為8章,前兩章介紹機器學(xué)習(xí)基本概念和 PyTorch基本操作,對于了解相關(guān)背景的讀者可以略讀。從第3章開始,將深入學(xué)習(xí)常見的監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、概率圖模型、核方法、深度神經(jīng)網(wǎng)絡(luò),以及強化學(xué)習(xí)。本書并沒有過多介紹某一具體領(lǐng)域的應(yīng)用算法,但在各章最后配備了實戰(zhàn)環(huán)節(jié),利用所學(xué)的算法知識解決具體問題。實戰(zhàn)內(nèi)容涵蓋了經(jīng)典數(shù)據(jù)挖掘比賽,推薦廣告中的點擊率預(yù)估算法,無監(jiān)督學(xué)習(xí)在異常檢測中的應(yīng)用,復(fù)雜概率圖模型的變分推斷,利用高斯過程進行超參數(shù)優(yōu)化,對