本篇文章為天池三月場讀書會《可解釋機器學習》的內容概述和項目實戰分享,旨在為推廣機器學習可解釋性的應用提供一定幫助。
本次直播分享視頻和實踐代碼以及PP獲取地址:https://tianchi.aliyun.com/specials/promotion/activity/bookclub
目錄
內容分享
? 為什么我們需要可解釋機器學習
? 《可解釋機器學習》的內容介紹
1、可解釋的模型
2、模型無關的解釋方法
3、基于樣本的解釋方法
4、神經網絡的解釋方法
實戰分析
以下為內容分享
在機器學習逐漸黑盒化的情況下,人們對模型的可解釋性也提出了要求。可解釋人工智能(XAI)被列為數據和分析技術領域的top10重要趨勢之一。在2017年,美國國防部開展了XAI計劃;在2018年,歐洲強調對可解釋機器學習的需求。此外,谷歌微軟等公司也開展對可解釋機器學習相關技術的研究。
為什么我們需要可解釋機器學習
從多個方面可知,我們需要可解釋機器學習:
社會對AI的依賴性(無人駕駛、安全、金融)。這是因為我們的社會比起以往任何時候都更依賴人工智能,這促使我們很需要了解模型。比如說,如果無人駕駛過程中出現事故,那我們應該能過瞄準哪些部件出錯,或者哪些部門應該為這次事故買單。
用戶需要可解釋性增強信任。從用戶的角度來說,用戶需要明白這些決策的后果,如果說數據會用用戶的私人信息,那對用戶而言這是一件很恐懼的事情。
監管機構需要可解釋性。對于可能會違反規則的公司,比如說泄漏內幕信息,我們應該能夠發現。
模型設計者需要解釋去調試模型。
解釋方法有助于科學知識發現,在醫學、生態學等諸多領域中可解釋性發揮重要作用。
在可解釋機器學習和可解釋性的領域中,還有一些經典案例,有助于理解可解釋性和可解釋機器學習的重要性:
哮喘和肺炎的案例。由于神經網絡的錯誤無法解釋,導致神經網絡模型無法用于臨床試驗。
在狼和狗的圖像分類中,解釋發現模型使用背景中的雪作為區分的特征,而不是動物本身。
金融部門發現將id作為最重要的特征。
《可解釋機器學習》的內容介紹
可解釋機器學習可以從三個角度進行分類:
第一個分類是內置/內在可解釋性以及事后可解釋性。內置可解釋性是將可解釋模塊嵌入到模型中,比如說線性模型的權重、決策樹的樹結構。另外一種是事后可解釋性,這是在模型訓練結束后使用解釋技術去解釋模型。
第二種分類是特定于模型的解釋和模型無關的解釋,簡單的說,特定于模型的解釋這意味著必須將其應用到特定的模型體系結構中。而模型無關的解釋意味著解釋方法與所用模型無關聯,這種解釋方法應用范圍廣。
第三種分類是全局解釋和局部解釋。全局解釋是解釋模型的全局行為。局部解釋是在單條數據或者說單個實例上的解釋。
《可解釋機器學習》書將可解釋性方法分為四個模塊進行介紹,包括可解釋的模型、模型無關的解釋方法、基于樣本的解釋和神經網絡解釋。同時,在每一節的內容中,分析了包括對方法的直觀描述、從數學層面的理解、還有在數據集上的測試和解釋過程、對方法優缺點的描述、以及介紹用于實現的工具。
可解釋的模型
可解釋的模型是指模型內置可解釋性,包括簡單的樹模型和線性回歸,以及運用正則化技巧。
首先,如果模型是線性的,那么模型的權重就可以表示特征的重要性,在線性模型中我們可以用t統計量去表示特征重要性。
如果是邏輯回歸,那我們同樣可以用權重去表示特征的重要性。因為邏輯回歸也可以寫成線性回歸的形式,等式右邊是加權和,左邊用連接函數和概率分布表示。最后用幾率表示邏輯模型中的特征重要性。
此外,線性模型約束結果為高斯分布、特征無交互、結果與特征間關系為線性,我們分別可以用廣義線性模型、特征交互和廣義加性模型去解決。
自身具有可解釋性的模型還有決策樹和決策規則。決策規則學習if-then規則,有三個流派,各自代表性的方法分別為OneR、順序覆蓋和貝葉斯規則列表。OneR是學習單條規則;順序覆蓋是迭代地學習規則并刪除新規則覆蓋的數據點;貝葉斯規則列表是使用貝葉斯統計將預挖的頻繁模式組合到決策列表中。而決策樹的樹結構則可以用于解釋模型的決策過程。此外還有rulefit,貝葉斯模型和k近鄰,它們都具備可解釋性。其中rulefit是學習具有原始特征以及很多新特征(決策規則)的稀疏線性模型。
除了這些模型,稀疏性也是很重要的思想,它不僅可以減少過擬合的風險,也可以提高模型的可解釋性,現在一些學者的工作就是在稀疏性上進行研究。