348頁告訴你可解釋的深度學習AI:方法和挑戰(zhàn),2023新書竟然給出了我一項不到的答案

近年來,深度學習已成為人工智能(AI)研究中最受歡迎的話題之一。它是機器學習的一個子集,使用具有許多層的人工神經(jīng)網(wǎng)絡從數(shù)據(jù)中學習并產(chǎn)生基于該學習的輸出。深度學習的最終目標是使機器具有像人類一樣的分析和學習能力,并識別各種類型的數(shù)據(jù),例如文本、圖像和聲音。
然而,盡管深度學習模型在各個領(lǐng)域取得了巨大的成功,仍然存在一個根本性問題:它們是黑匣子。這意味著這些模型如何得出輸出仍然不透明,很難確定哪些輸入特征具有影響力以及這些模型如何得出結(jié)論。這種缺乏透明度可能會在需要可解釋性和問責制的各種應用程序中造成問題,例如金融或醫(yī)療保健。
例如,讓我們考慮一個金融欺詐檢測系統(tǒng),該系統(tǒng)通過使用深度學習模型識別出一小部分進行可疑活動的用戶。盡管模型的輸出似乎很有前途,但業(yè)務部門無法對結(jié)果進行操作,因為他們不理解模型是如何得出結(jié)果的。如果沒有明確的證據(jù),該部門無法向監(jiān)管機構(gòu)證明其行動的合理性,也不能自信地評估模型預測的準確性。同樣,在醫(yī)學診斷中,深度學習模型可能會基于患者的檢測數(shù)據(jù)檢測出結(jié)核病的跡象;但是,如果不了解模型決策過程背后的原因,醫(yī)生可能會猶豫是否要遵循其推薦,導致延誤或錯誤的診斷。
幸運的是,可解釋的AI(XAI)方法提供了解決此問題的方法。XAI指的是旨在解釋機器學習模型如何做出決策的一組技術(shù)。這些技術(shù)幫助我們了解模型為什么做出某些決策或提供特定輸出,從而更容易地識別模型性能中的錯誤、偏見或其他問題。本質(zhì)上,XAI旨在提供對深度學習模型黑盒的透明度和洞察力。
《可解釋的深度學習AI》是一個最全面的XAI資源之一,由王超麗和他的同事撰寫,介紹了該領(lǐng)域的最新和原始的貢獻。這本348頁的書提供了解釋深度學習模型的方法論框架,包括一組工具和方法來幫助我們理解其復雜的輸出。此外,作者還介紹了幾個案例研究,展示了書中討論的技術(shù)如何應用于金融和醫(yī)療保健等各個領(lǐng)域。
例如,作者描述了本地解釋方法(例如局部可解釋模型無關(guān)說明)如何幫助解釋深度學習模型做出的單個預測,在需要證明輸出并向用戶保證模型可靠性的情況下尤其有用。另一方面,全局解釋方法(例如Shapley加法說明)使我們能夠解釋深度學習模型的整體行為并了解不同輸入特征的相對重要性

348頁《可解釋的深度學習AI》視頻詳細講解:
【2023新書】什么是可解釋的深度學習AI?這本書剛發(fā)布,竟然給出了我意想不到的答案——深度學習/大語言模型/知識圖譜
