最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

Python機器學習:基于PyTorch和Scikit-Learn

2023-07-21 20:30 作者:沒有名字如何行走江湖  | 我要投稿

鏈接:https://pan.baidu.com/s/1BnBK3nZ3pr6omtHd7zIKZw?pwd=3cu6?

提取碼:3cu6

本書是一本在PyTorch環(huán)境下學習機器學習和深度學習的綜合指南,可以作為初學者的入門教程,也可以作為讀者開發(fā)機器學習項目時的參考書。 本書講解清晰、示例生動,深入介紹了機器學習方法的基礎知識,不僅提供了構建機器學習模型的說明,而且提供了構建機器學習模型和解決實際問題的基本準則。 本書添加了基于PyTorch的深度學習內容,介紹了新版Scikit-Learn。本書涵蓋了多種用于文本和圖像分類的機器學習與深度學習方法,介紹了用于生成新數(shù)據(jù)的生成對抗網(wǎng)絡(GAN)和用于智能體的強化學習。最后,本書還介紹了深度學習的新動態(tài),包括圖神經(jīng)網(wǎng)絡和用于自然語言處理(NLP)的大型transformer。 無論是機器學習入門新手,還是計劃跟蹤機器學習進展的研發(fā)人員,都可以將本書作為使用Python進行機器學習的不二之選。

【內容簡介】

本書深入介紹了機器學習領域的基本概念和方法,除介紹了Python機器學習庫和用機器學習庫搭建神經(jīng)網(wǎng)絡模型的方法外,還介紹了機器學習算法的數(shù)學理論、工作原理、使用方法、實現(xiàn)細節(jié)以及如何避免機器學習算法實現(xiàn)過程中的常見問題。本書涵蓋了多種用于文本和圖像分類的機器學習與深度學習方法,以及用于生成新數(shù)據(jù)的生成對抗網(wǎng)絡(GAN)和用于智能體的強化學習,還介紹了深度學習的新動態(tài),包括圖神經(jīng)網(wǎng)絡和用于自然語言處理(NLP)的大型transformer。本書講解清晰,示例生動,理論和實踐部分相對平衡,既可以作為機器學習領域初學者的入門教程,也可以作為讀者開發(fā)機器學習項目時的參考書。

【目錄】

CONTENTS
目  錄


譯者序

前言
作者簡介
審校者簡介

第1章 賦予計算機從數(shù)據(jù)中學習的能力1
 1.1 將數(shù)據(jù)轉化為知識的智能系統(tǒng)1
 1.2 三種機器學習類型2
1.2.1 用于預測未來的監(jiān)督學習2
1.2.2 解決交互問題的強化學習4
1.2.3 發(fā)現(xiàn)數(shù)據(jù)中隱藏規(guī)律的無監(jiān)督學習 5
 1.3 基本術語與符號6
1.3.1 本書中使用的符號和約定6
1.3.2 機器學習術語8
 1.4 構建機器學習系統(tǒng)的路線圖8
1.4.1 數(shù)據(jù)預處理——讓數(shù)據(jù)可用8
1.4.2 和選擇預測模型9
1.4.3 使用未見過的數(shù)據(jù)對模型進行評估10
 1.5 使用Python實現(xiàn)機器學習算法10
1.5.1 從Python Package Index中安裝Python和其他軟件包10
1.5.2 使用Anaconda Python
軟件包管理器11
1.5.3 科學計算、數(shù)據(jù)科學和機器學習軟件包12
 1.6 本章小結13
第2章 簡單的機器學習分類算法14
 2.1 人工神經(jīng)元——機器學習早期歷史一瞥14
2.1.1 人工神經(jīng)元的定義15
2.1.2 感知機學習規(guī)則16
 2.2 使用Python實現(xiàn)感知機學習算法19
2.2.1 面向對象的感知機API19

2.2.2 使用鳶尾花數(shù)據(jù)集感知機22
 2.3 自適應線性神經(jīng)元與算法收斂27
2.3.1 使用梯度下降法最小化損失函數(shù)28
2.3.2 在Python中實現(xiàn)Adaline30
2.3.3 通過征縮放改進梯度下降34
2.3.4 大規(guī)模機器學習與隨機梯度下降36
 2.4 本章小結41

XIV
第3章 ScikitLearn機器學習分類算法之旅42
 3.1 分類算法的選擇42
 3.2 學習ScikitLearn的第一步——感知機43
 3.3 用邏輯回歸算法建模分類概率48
3.3.1 邏輯回歸與條件概率48
3.3.2 用邏輯損失函數(shù)更新模型權重51
3.3.3 從Adaline的代碼實現(xiàn)到邏輯回歸的代碼實現(xiàn)53
3.3.4 用ScikitLearn邏輯回歸模型56
3.3.5 使用正則化避免模型過擬合59
 3.4 基于分類間隔的支持向量機62
3.4.1 理解分類間隔62
3.4.2 使用松弛變量解決非線性可分問題62
3.4.3 ScikitLearn中另外一種實現(xiàn)64
 3.5 使用核支持向量機求解非線性問題64
3.5.1 處理線性不可分數(shù)據(jù)的核方法64
3.5.2 使用核方法在高維空間中尋找分離超平面66
 3.6 決策樹學習69
3.6.1 化信息增益70
3.6.2 構建決策樹73
3.6.3 多棵決策樹組成隨機森林76
 3.7 基于惰性學習策略的k近鄰算法78
 3.8 本章小結81
第4章 構建良好的數(shù)據(jù)集——數(shù)據(jù)預處理83
 4.1 處理缺失值83
4.1.1 識別表格數(shù)據(jù)中的缺失值83
4.1.2 刪除含有缺失值的樣本或征85
4.1.3 填補缺失值85
4.1.4 ScikitLearn的估計器86
 4.2 處理類別數(shù)據(jù)87
4.2.1 用pandas實現(xiàn)類別數(shù)據(jù)編碼88
4.2.2 映射有序征88
4.2.3 類別標簽編碼89
4.2.4 標稱征的獨熱編碼90
 4.3 將數(shù)據(jù)集劃分為數(shù)據(jù)集和測試數(shù)據(jù)集93
 4.4 使征具有相同的尺度95
 4.5 選擇有意義的征97
4.5.1 用L1和L2正則化對模型復雜度進行懲罰98
4.5.2 L2正則化的幾何解釋98
4.5.3 L1正則化與稀疏解99
4.5.4 序貫征選擇算法102
 4.6 用隨機森林評估征重要性107
 4.7 本章小結109
第5章 通過降維方法壓縮數(shù)據(jù)110
 5.1 無監(jiān)督降維的主成分分析方法110
5.1.1 主成分分析的主要步驟110
5.1.2 提取主成分的步驟112
5.1.3 總方差和被解釋的方差114
5.1.4 征變換115
5.1.5 用ScikitLearn實現(xiàn)主成分分析118
5.1.6 評估征的貢獻120
 5.2 監(jiān)督數(shù)據(jù)壓縮的線性判別分析方法122
5.2.1 主成分分析與線性判別分析122
5.2.2 線性判別分析基本原理123
5.2.3 計算散布矩陣124
5.2.4 為新征子空間選擇線性判別式126
5.2.5 將樣本投影到新的征空間128
5.2.6 用ScikitLearn實現(xiàn)線性判別分析128
 5.3 非線性降維和可視化130
5.3.1 非線性降維的不足130
5.3.2 使用tSNE可視化數(shù)據(jù)131
 5.4 本章小結135
XV
第6章 模型評估和超參數(shù)調優(yōu)的最佳實踐136
 6.1 使用pipeline方法簡化工作流程136
6.1.1 加載威斯康星乳腺癌數(shù)據(jù)集136
6.1.2 在pipeline中集成轉換器和估計器138
 6.2 使用k折交叉驗證評估模型性能140
6.2.1 holdout交叉驗證140
6.2.2 k折交叉驗證140
 6.3 用學習線和驗證線調試算法144
6.3.1 使用學習線解決偏差和方差問題144
6.3.2 使用驗證線解決過擬合和欠擬合問題146
 6.4 通過網(wǎng)格搜索微調機器學習模型148
6.4.1 通過網(wǎng)格搜索調整超參數(shù)148
6.4.2 通過隨機搜索更廣泛地探索超參數(shù)的配置149
6.4.3 連續(xù)減半超參數(shù)的搜索算法151
6.4.4 嵌套交叉驗證153
 6.5 模型性能評估指標154
6.5.1 混淆矩陣155
6.5.2 精確率和召回率156
6.5.3 繪制ROC線158
6.5.4 多分類器評價指標160
6.5.5 處理類別不均衡問題161
 6.6 本章小結163
XVI
第7章 組合不同模型的集成學習164
 7.1 集成學習164
 7.2 通過絕對多數(shù)投票組合分類器167
7.2.1 實現(xiàn)一個簡單的基于絕對多數(shù)投票的集成分類器167
7.2.2 使用絕對多數(shù)投票原則進行預測171
7.2.3 評估和調整集成分類器173
 7.3 bagging——基于bootstrap樣本構建集成分類器179
7.3.1 bagging簡介179
7.3.2 使用bagging對葡萄酒數(shù)據(jù)集中的樣本進行分類180
 7.4 通過自適應boosting提高弱學習器的性能184
7.4.1 boosting的工作原理184
7.4.2 用ScikitLearn實現(xiàn)AdaBoost188
 7.5 梯度boosting——基于損失梯度集成分類器191
7.5.1 比較AdaBoost與梯度boosting191
7.5.2 通用的梯度boosting算法概述191
7.5.3 解釋用于分類的梯度boosting算法193
7.5.4 用梯度boosting分類的例子194
7.5.5 使用XGBoost196
 7.6 本章小結197
第8章 用機器學習進行情感分析198
 8.1 對IMDb影評數(shù)據(jù)進行文本處理198
8.1.1 獲取影評數(shù)據(jù)集199
8.1.2 將影評數(shù)據(jù)集預處理成更易使用的格式199
 8.2 詞袋模型201
8.2.1 將單詞轉換為征向量201
8.2.2 通過詞頻-逆文檔頻率評估單詞的相關性203
8.2.3 文本數(shù)據(jù)清洗204
8.2.4 將文檔處理成token206
 8.3 用于文檔分類的邏輯回歸模型208
 8.4 處理更大的數(shù)據(jù)——在線算法
和核外學習方法210
 8.5 用潛在狄利克雷分配實現(xiàn)主題
建模213
8.5.1 使用LDA分解文本
文檔214
8.5.2 用ScikitLearn實現(xiàn)
LDA214
 8.6 本章小結217
第9章 預測連續(xù)目標變量的
回歸分析218
 9.1 線性回歸簡介218
9.1.1 簡單線性回歸218
9.1.2 多元線性回歸219
 9.2 探索艾姆斯住房數(shù)據(jù)集220
9.2.1 將艾姆斯住房數(shù)據(jù)集加載
到DataFrame中220
9.2.2 可視化數(shù)據(jù)集的重要
征222
9.2.3 使用相關矩陣查看
相關性223
 9.3 最小二乘線性回歸模型的
實現(xiàn)225
9.3.1 用梯度下降法求解回歸
參數(shù)225
9.3.2 用ScikitLearn估計回歸
模型的系數(shù)229
 9.4 使用RANSAC擬合穩(wěn)健回歸
模型231
 9.5 評估線性回歸模型的性能233
 9.6 使用正則化方法進行回歸237
 9.7 將線性回歸模型轉化為線——
多項式回歸238
9.7.1 使用ScikitLearn添加
多項式項239
9.7.2 建模艾姆斯住房數(shù)據(jù)
集中的非線性關系240
 9.8 使用隨機森林處理非線性
關系243
9.8.1 決策樹回歸243
9.8.2 隨機森林回歸245
 9.9 本章小結247
XVII
第10章 處理無標簽數(shù)據(jù)的
聚類分析248
 10.1 使用k均值算法對樣本分組248
10.1.1 用ScikitLearn實現(xiàn)
k均值聚類248
10.1.2 k均值++——更聰明的
簇初始化方法252
10.1.3 硬聚類與軟聚類253
10.1.4 用肘方法求解簇的
數(shù)量255
10.1.5 通過輪廓圖量化聚類
質量255
 10.2 把簇組織成層次樹260
10.2.1 自底向上的聚類260
10.2.2 在距離矩陣上進行分層
聚類262
10.2.3 熱度圖與樹狀圖
結合265
10.2.4 通過ScikitLearn進行
凝聚聚類266
 10.3 通過DBSCAN定位高密度
區(qū)域267
 10.4 本章小結272

XVIII
第11章 從零開始實現(xiàn)多層人工神經(jīng)網(wǎng)絡273
 11.1 用人工神經(jīng)網(wǎng)絡建立復雜函數(shù)
模型273
11.1.1 單層神經(jīng)網(wǎng)絡274
11.1.2 多層神經(jīng)網(wǎng)絡結構275
11.1.3 利用前向傳播激活神經(jīng)
網(wǎng)絡277
 11.2 識別手寫數(shù)字279
11.2.1 獲取并準備MNIST
數(shù)據(jù)集279
11.2.2 實現(xiàn)多層感知機282
11.2.3 神經(jīng)網(wǎng)絡代碼287
11.2.4 評估神經(jīng)網(wǎng)絡的
性能291
 11.3 人工神經(jīng)網(wǎng)絡295
11.3.1 損失函數(shù)的計算295
11.3.2 理解反向傳播296
11.3.3 通過反向傳播
神經(jīng)網(wǎng)絡297
 11.4 關于神經(jīng)網(wǎng)絡的收斂性300
 11.5 關于神經(jīng)網(wǎng)絡實現(xiàn)的最后
幾句話300
 11.6 本章小結301
第12章 用PyTorch并行
神經(jīng)網(wǎng)絡302
 12.1 PyTorch和模型的性能302
12.1.1 性能挑戰(zhàn)302
12.1.2 什么是PyTorch303
12.1.3 如何學習PyTorch304
 12.2 學習PyTorch的第一步304
12.2.1 安裝PyTorch305
12.2.2 在PyTorch中創(chuàng)建

【前言】

通過社交媒體和新聞報道我們已經(jīng)了解到, 機器學習已成為這個時代非常振奮人心的技
術。 微軟、 谷歌、 B / 3 1 、 蘋果、 亞馬遜、 H 、B 等公司都在機器學習科研與應用方面投入巨資。
機器學習已經(jīng)成為我們這個時代的流行語, 這并非夸大其詞。 機器學習領域為未來的無限可
能開辟了新道路, 已經(jīng)成為我們日常生活中不可或缺的一部分。 機器學習應用包括手機語音
助手對話、 為顧客推薦商品、 識別信用卡盜刷、 過濾 X 領I1 4 E 垃圾郵件、 自動診斷疾病等。
本書適合有志于進入機器學習領域, 使用機器學習算法解決問題或從事機器學習研究的
人員閱讀。 機器學習理論對初學者而言有一定難度, 初學者可以從閱讀機器學習書籍并動手
實踐機器學習算法入門。
練習實際的機器學習代碼示例是一種進入機器學習領域的好方法。 通過具體的示例用所
學的知識解決實際的問題, 可以達到理解概念的目的。 本書除了介紹 或>3 8 N 5 機器學習庫和用
機器學習庫搭建模型外, 還介紹機器學習算法的數(shù)學理論, 這些數(shù)學理論對于深入理解機器
學習算法至關重要。 因此, 不同于只專注于實踐的書籍, 本書討論了機器學習算法的工作原
理、 使用方法、 實現(xiàn)細節(jié)以及如何避免機器學習算法實現(xiàn)過程中的常見問題。
本書涵蓋了機器學習領域的基本概念和方法, 可以讓讀者全面地了解機器學習領域。 如
果想深入了解機器學習算法, 可以參考本書引用的資源, 這些資源都是機器學習領域最近的
重要突破。


Python機器學習:基于PyTorch和Scikit-Learn的評論 (共 條)

分享到微博請遵守國家法律
开远市| 文登市| 错那县| 滨州市| 彰武县| 清水河县| 江门市| 调兵山市| 罗源县| 鹿邑县| 景洪市| 资兴市| 雷州市| 北辰区| 禹州市| 香港 | 威海市| 遵化市| 乃东县| 赤城县| 大方县| 佛冈县| 老河口市| 台山市| 京山县| 旬邑县| 漯河市| 商南县| 浏阳市| 东源县| 潼南县| 盐源县| 浦城县| 梁山县| 万载县| 南部县| 贵定县| 泸西县| 龙岩市| 石林| 留坝县|