《可解釋機器學習》復旦大佬翻譯中文版!
可解釋性是當下機器學習研究特點之一。
最近,來自復旦大學的研究生朱明超,將《Interpretable Machine Learning》翻譯成了中文。
本文推介由朱明超同學親自撰寫。這本書最初是由德國慕尼黑大學博士Christoph Molnar耗時兩年完成的,長達250頁,是僅有的一本系統(tǒng)介紹可解釋性機器學習的書籍。?

朱明超完成了這本書的翻譯和校對工作,目前已經(jīng)開源放到GitHub網(wǎng)頁上。朱同學在翻譯過程中還和原作者進行了多次討論,中文版還得到了Christoph Molnar本人在Twiter上的推薦。

“可解釋”是這本書的核心論題。作者認為,可解釋性在機器學習甚至日常生活中都是相當重要的一個問題。建議機器學習從業(yè)者、數(shù)據(jù)科學家、統(tǒng)計學家和任何對使機器學習模型可解釋的人閱讀本書。
《可解釋的機器學習》該書總共包含 7 章內容:
第一章:前言
第二章:可解釋性
第三章:數(shù)據(jù)集
第四章:可解釋的模型
第五章:模型無關方法
第六章:基于樣本的解釋
第七章:水晶球
Molnar表示,雖然數(shù)據(jù)集與黑盒機器學習解決了很多問題,但這不是最好的使用姿勢,現(xiàn)在模型本身代替了數(shù)據(jù)成為了信息的來源,但可解釋性可以提取模型捕捉到的額外信息。
當我們的日常生活中全都是機器和算法時,也需要可解釋性來增加社會的接受度。畢竟要是連科學家都研究不透“黑盒”,怎樣讓普通人完全信任模型做出的決策呢?
這本書的重點是機器學習的可解釋性。你可以從這本書中學習簡單的、可解釋的模型,如線性回歸、決策樹和決策規(guī)則等。
后面幾章重點介紹了解釋黑盒模型的模型無關的一般方法,如特征重要性和累積局部效應,以及用 Shapley 值和 LIME 解釋單個實例預測。
對各種解釋方法進行了深入的解釋和批判性的討論。它們是如何工作的?優(yōu)點和缺點是什么?如何解釋它們的輸出?本書使你能夠選擇并正確應用最適合你的機器學習項目的解釋方法。
這本書結合了各類現(xiàn)實生活中的例子來介紹相關的概念,同時搭配參考鏈接幫助讀者進一步學習了解。
另外朱同學的GitHub上還一直在堅持翻譯Goodfellow的《機器學習》,還在翻譯中配上了自己編寫的Python代碼供參考。有興趣的同學也可以順帶去參考學習。

白嫖書籍PDF+100G入門到進階AI資源包+論文指導/kaggle組隊/就業(yè)指導+技術問題答疑?
關注微信公眾H:AI技術星球,回復211 獲取
1、超詳細的人工智能學習路線(AI大神博士推薦的學習地圖)
2、人工智能必看書籍(動手學習深度學習、花書、西瓜書、蜥蜴書AI寶藏電子書這里都有)
3、60份人工智能行業(yè)報告(想了解人工智能行業(yè)前景就看這!)
4、人工智能快速入門視頻教程合集(Python基礎、數(shù)學基礎、機器學習算法與實戰(zhàn)、NLP、數(shù)據(jù)分析等等)
5、上千篇CVPR、ICCV頂會論文
6、唐宇迪博士精心整理的人工智能學習大綱
7、機器學習算法+深度學習神經(jīng)網(wǎng)絡基礎教程
8、OpenCV、Pytorch、YOLO等主流框架算法實戰(zhàn)教程?