自然語言處理遷移學(xué)習(xí)實戰(zhàn)
鏈接:https://pan.baidu.com/s/109QdEPT_PxSEUIkzfAFsew?pwd=xlgn?
提取碼:xlgn

.內(nèi)容基礎(chǔ)且實用。本書是關(guān)于遷移學(xué)習(xí)技術(shù)在NLP領(lǐng)域的實用指南,能夠幫助讀者快速了解相關(guān)的機器學(xué)習(xí)概念,并將其應(yīng)用于現(xiàn)實世界的問題。
.內(nèi)容技術(shù)新。本書詳細(xì)介紹了如何使用遷移學(xué)習(xí)技術(shù)來解決新場景、新任務(wù)和新環(huán)境的問題,使得機器學(xué)習(xí)系統(tǒng)更加可靠和魯棒。
.具有實戰(zhàn)性。本書提供了如何使用遷移學(xué)習(xí)來改進NLP模型的實踐指導(dǎo),讀者可以學(xué)習(xí)如何從預(yù)訓(xùn)練模型開始,調(diào)整以滿足確切的需求,從而提供先進的結(jié)果。
.涵蓋廣泛主題。本書涵蓋了各種NLP應(yīng)用程序,包括垃圾電子郵件分類器、IMDb電影評論情緒分析器、自動事實檢查器、問答系統(tǒng)和翻譯系統(tǒng)等,使讀者能夠全面了解遷移學(xué)習(xí)在NLP領(lǐng)域的應(yīng)用。
.參考價值高。本書不僅適合擁有NLP基礎(chǔ)的機器學(xué)習(xí)和數(shù)據(jù)科學(xué)的開發(fā)人員閱讀,同時也適合高等院校計算機及相關(guān)專業(yè)的學(xué)生和軟件學(xué)院的學(xué)生參考,具有很高的參考價值。
.清晰易懂的文字表述:本書采用簡潔明了的文字表述,使讀者能夠輕松理解書中的內(nèi)容,降低閱讀門檻。
內(nèi)容簡介
遷移學(xué)習(xí)作為機器學(xué)習(xí)和人工智能領(lǐng)域的重要方法,在計算機視覺、自然語言處理(NLP)、語音識別等領(lǐng)域都得到廣泛應(yīng)用。本書是遷移學(xué)習(xí)技術(shù)的實用入門圖書,能夠帶領(lǐng)讀者深入實踐自然語言處理模型。首先,本書回顧了機器學(xué)習(xí)中的關(guān)鍵概念,并介紹了機器學(xué)習(xí)的發(fā)展歷史,以及NLP遷移學(xué)習(xí)的進展;其次,深入探討了一些重要的NLP遷移學(xué)習(xí)方法—NLP淺層遷移學(xué)習(xí)和NLP深度遷移學(xué)習(xí);最后,涵蓋NLP遷移學(xué)習(xí)領(lǐng)域中重要的子領(lǐng)域—以Transformer作為關(guān)鍵功能的深度遷移學(xué)習(xí)技術(shù)。讀者可以動手將現(xiàn)有的先進模型應(yīng)用于現(xiàn)實世界的應(yīng)用程序,包括垃圾電子郵件分類器、IMDb電影評論情感分類器、自動事實檢查器、問答系統(tǒng)和翻譯系統(tǒng)等。
本書文字簡潔、論述精辟、層次清晰,既適合擁有NLP基礎(chǔ)的機器學(xué)習(xí)和數(shù)據(jù)科學(xué)相關(guān)的開發(fā)人員閱讀,也適合作為高等院校計算機及相關(guān)專業(yè)的學(xué)生參考用書。
作者簡介
Paul Azunre擁有麻省理工學(xué)院計算機科學(xué)博士學(xué)位,曾擔(dān)任美國國防部高級研究計劃局(DARPA)的多個研究項目的主任研究員。由他創(chuàng)建的Algorine公司致力于推進AI/ML技術(shù)并讓這些技術(shù)產(chǎn)生重大社會影響。Paul還參與創(chuàng)建了Ghana NLP開源社區(qū)。該社區(qū)專注于NLP技術(shù)的應(yīng)用,尤其是對加納語和其他低資源語言進行遷移學(xué)習(xí)。
精彩書評
這本書對NLP背景下的遷移學(xué)習(xí)做了精彩闡述。內(nèi)容深入淺出,案例豐富,值得深入閱讀。遷移學(xué)習(xí)本質(zhì)上是知識、算力的復(fù)用。在目標(biāo)檢測、模式識別、NLP等領(lǐng)域,遷移學(xué)習(xí)大有可為。
——許國強,三一重工SaaS首席信息官
遷移學(xué)習(xí)是近幾年NLP領(lǐng)域重要的研究方向之一。這本書以實例和代碼的形式對NLP遷移學(xué)習(xí)的基本概念、業(yè)務(wù)應(yīng)用以及發(fā)展方向做了詳細(xì)介紹。這本書介紹的多個先進模型和算法在業(yè)務(wù)實踐中都得到廣泛應(yīng)用。對想了解NLP遷移學(xué)習(xí)并在實際工作中落地的研究人員來說,這是一本很好的參考書。
——梁磊,螞蟻集團資深技術(shù)專家
遷移學(xué)習(xí)技術(shù)在感知類機器學(xué)習(xí)場景取得了長足的進步,尤其是BERT系列的預(yù)訓(xùn)練模型將NLP領(lǐng)域的基線提升到新的高度。這本書系統(tǒng)、全面且貼合實際地介紹了這個高速發(fā)展的主題,值得NLP領(lǐng)域的工程師深入閱讀和探究。
——朱亮,Meta(原Facebook)資深算法工程師
遷移學(xué)習(xí)是機器學(xué)習(xí)領(lǐng)域一次革命性的技術(shù)突破,特別是在NLP領(lǐng)域取得了令人振奮的成就。同時,我們相信遷移學(xué)習(xí)深刻的思想也會應(yīng)用到其他領(lǐng)域,并且取得不錯的成績。推薦機器學(xué)習(xí)相關(guān)領(lǐng)域的工程師閱讀這本書,保持對遷移學(xué)習(xí)的持續(xù)關(guān)注。
——劉冰洋,Google資深算法工程師
這本書對遷移學(xué)習(xí)的理論給出了全面且翔實的介紹,可以幫助讀者建立清晰的認(rèn)知。更為難得的是,這本書以實際的業(yè)務(wù)問題作為驅(qū)動,引領(lǐng)讀者閱讀和學(xué)習(xí)。推薦給NLP領(lǐng)域的相關(guān)工程師。
——趙海,美團技術(shù)專家
目錄
第 一部分 導(dǎo)論
第 1章 遷移學(xué)習(xí)簡介 3
1.1 NLP領(lǐng)域典型任務(wù)概述 5
1.2 理解人工智能背景下的NLP技術(shù) 6
1.2.1 人工智能 7
1.2.2 機器學(xué)習(xí) 7
1.2.3 自然語言處理 11
1.3 NLP發(fā)展簡史 12
1.3.1 NLP簡介 12
1.3.2 遷移學(xué)習(xí)的進展 14
1.4 計算機視覺中的遷移學(xué)習(xí) 16
1.4.1 概述 16
1.4.2 ImageNet預(yù)訓(xùn)練模型 17
1.4.3 ImageNet預(yù)訓(xùn)練模型的微調(diào) 18
1.5 NLP遷移學(xué)習(xí)成為一個令人興奮的研究課題的原因 19
小結(jié) 20
第 2章 從頭開始:數(shù)據(jù)預(yù)處理 21
2.1 垃圾電子郵件分類任務(wù)中示例數(shù)據(jù)的預(yù)處理 23
2.1.1 加載并檢視Enron電子郵件語料庫 24
2.1.2 加載并檢視欺詐電子郵件數(shù)據(jù)集 26
2.1.3 將電子郵件文本轉(zhuǎn)換為數(shù)值 30
2.2 電影評論情感分類任務(wù)中示例數(shù)據(jù)的預(yù)處理 32
2.3 廣義線性模型 35
2.3.1 邏輯斯諦回歸 36
2.3.2 支持向量機 38
小結(jié) 38
第3章 從頭開始:基準(zhǔn)測試和優(yōu)化 41
3.1 基于決策樹的模型 41
3.1.1 隨機森林 42
3.1.2 梯度提升機 42
3.2 神經(jīng)網(wǎng)絡(luò)模型 47
3.2.1 語言模型嵌入 47
3.2.2 BERT模型簡介 52
3.3 效果優(yōu)化 56
3.3.1 手動超參調(diào)優(yōu) 56
3.3.2 系統(tǒng)化超參調(diào)優(yōu) 57
小結(jié) 58
第二部分 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的淺層遷移學(xué)習(xí)和深度遷移學(xué)習(xí)
第4章 NLP淺層遷移學(xué)習(xí) 63
4.1 基于預(yù)訓(xùn)練詞嵌入的半監(jiān)督學(xué)習(xí) 65
4.2 基于高級表示的半監(jiān)督學(xué)習(xí) 69
4.3 多任務(wù)學(xué)習(xí) 71
4.3.1 問題的提出以及淺層神經(jīng)網(wǎng)絡(luò)單任務(wù)基線 72
4.3.2 雙任務(wù)實驗 74
4.4 領(lǐng)域適配 75
小結(jié) 78
第5章 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的深度遷移學(xué)習(xí)實驗的數(shù)據(jù)預(yù)處理 79
5.1 表格分類數(shù)據(jù)的預(yù)處理 81
5.1.1 獲取并檢視表格數(shù)據(jù) 82
5.1.2 預(yù)處理表格數(shù)據(jù) 85
5.1.3 對預(yù)處理數(shù)據(jù)進行數(shù)字編碼 87
5.2 預(yù)處理示例數(shù)據(jù)的事實核查 87
5.2.1 特殊問題考量 88
5.2.2 加載并檢視事實核查數(shù)據(jù) 88
小結(jié) 89
第6章 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的NLP深度遷移學(xué)習(xí) 91
6.1 SIMOn 91
6.1.1 通用神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)概述 92
6.1.2 表格數(shù)據(jù)建模 93
6.1.3 SIMOn在表格數(shù)據(jù)分類中的應(yīng)用 93
6.2 ELMo 100
6.2.1 ELMo雙向語言建模 101
6.2.2 ELMo在虛假新聞檢測任務(wù)中的應(yīng)用 102
6.3 ULMFiT 104
6.3.1 以語言模型為目標(biāo)任務(wù)的微調(diào) 104
6.3.2 以分類為目標(biāo)任務(wù)的微調(diào) 105
小結(jié) 105
第三部分 基于Transformer的深度遷移學(xué)習(xí)以及適配策略
第7章 基于Transformer的深度遷移學(xué)習(xí)和GPT 109
7.1 Transformer 110
7.1.1 transformers庫簡介與注意力可視化 113
7.1.2 自注意力 115
7.1.3 殘差連接、編碼器-解碼器注意力和位置編碼 117
7.1.4 預(yù)訓(xùn)練的編碼器-解碼器在機器翻譯任務(wù)中的應(yīng)用 120
7.2 GPT 121
7.2.1 模型結(jié)構(gòu)概述 122
7.2.2 Transformer pipeline及其在文本生成任務(wù)中的應(yīng)用 124
7.2.3 聊天機器人任務(wù)中的應(yīng)用 126
小結(jié) 128
第8章 基于BERT和mBERT的NLP深度遷移學(xué)習(xí) 129
8.1 BERT 130
8.1.1 BERT模型結(jié)構(gòu) 131
8.1.2 在自動問答任務(wù)中的應(yīng)用 134
8.1.3 在空白填寫和后續(xù)句預(yù)測任務(wù)中的應(yīng)用 136
8.2 mBERT的跨語言學(xué)習(xí) 138
8.2.1 JW300數(shù)據(jù)集概述 139
8.2.2 用預(yù)訓(xùn)練分詞器將mBERT遷移到Twi單語言數(shù)據(jù) 139
8.2.3 根據(jù)Twi單語言數(shù)據(jù)從頭訓(xùn)練mBERT模型和分詞器 142
小結(jié) 143
第9章 ULMFiT與知識蒸餾的適配策略 145
9.1 逐步解凍和差別式微調(diào) 146
9.1.1 預(yù)訓(xùn)練語言模型微調(diào) 147
9.1.2 以分類為目標(biāo)任務(wù)的微調(diào) 149
9.2 知識蒸餾 151
小結(jié) 156
第 10章 ALBERT、適配器和多任務(wù)適配策略 157
10.1 嵌入因子分解與跨層參數(shù)共享 158
10.2 多任務(wù)微調(diào) 162
10.2.1 GLUE數(shù)據(jù)集 163
10.2.2 GLUE單任務(wù)微調(diào) 164
10.2.3 序列化適配 167
10.3 適配器 169
小結(jié) 171
第 11章 總結(jié) 173
11.1 關(guān)鍵概念概述 174
11.2 其他新興研究趨勢 179
11.2.1 RoBERTa 180
11.2.2 GPT-3 180
11.2.3 XLNet 182
11.2.4 BigBird 182
11.2.5 Longformer 182
11.2.6 Reformer 183
11.2.7 T5 183
11.2.8 BART 184
11.2.9 XLM 185
11.2.10 TAPAS 185
11.3 NLP遷移學(xué)習(xí)的發(fā)展方向 186
11.4 倫理和環(huán)境因素 187
11.5 最新進展 189
11.5.1 Kaggle和Zindi比賽 189
11.5.2 arXiv 190
11.5.3 新聞與社交媒體 190
11.6 寫在最后 191
附錄A Kaggle入門 193
A.1 通過Kaggle Kernel免費使用GPU 193
A.2 競賽、討論區(qū)和博客 198
附錄B 深度學(xué)習(xí)的基礎(chǔ)工具簡介 201
B.1 隨機梯度下降 202
B.2 TensorFlow 203
B.3 PyTorch 206
B.4 Keras、fast.a(chǎn)i庫和Hugging Face的transformers庫 207
查看全部↓