對可解釋機器學習的簡單了解

一、可解釋性的難度

深度學習模型 > 傳統(tǒng)的機器學習模型

部分傳統(tǒng)機器學習模型天然的可解釋性強:KNN、LR、線性回歸、決策樹、樸素貝葉斯

本質(zhì):看模型關注什么或者什么特征對模型影響大

二、傳統(tǒng)機器學習模型的可解釋性分析方法

1. 自帶可視化:如決策樹

2. 算法自帶的特征權重:看哪些特征更重要

3. Permutation Importance(置換重要度):也是看哪些特征更重要

4. PDP圖(多個數(shù)據(jù)的PDP圖就是ICE圖):特征值的大小對預測結(jié)果的影響

5. Shapley值:特征的貢獻

6. LIME

三、CNN的可解釋性分析方法

1. 可視化卷積核、特征圖

淺層:底層像素特征;中層:中層紋理特征;高層:高層語義特征

2. 遮擋、縮放、平移、旋轉(zhuǎn):例如遮擋某個圖片的某個部分,看對預測結(jié)果的影響,從而分析哪些特征對模型影響更大

3. 找到能使某個神經(jīng)元激活的原圖像素或者小圖:例如反卷積

4. 基于類激活熱力圖(CAM)的可視化:找模型的關注點

5. 語義編碼降維可視化:降維到二維、三維這樣人類可以理解的維度

6. 生成滿足某些要求的圖像:生成讓某個類別預測概率最大的圖像

ps:這是學習可解釋機器學習公開課的一些筆記

?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內(nèi)容