一、可解釋性的難度
深度學習模型 > 傳統(tǒng)的機器學習模型
部分傳統(tǒng)機器學習模型天然的可解釋性強:KNN、LR、線性回歸、決策樹、樸素貝葉斯
本質(zhì):看模型關注什么或者什么特征對模型影響大
二、傳統(tǒng)機器學習模型的可解釋性分析方法
1. 自帶可視化:如決策樹
2. 算法自帶的特征權重:看哪些特征更重要
3. Permutation Importance(置換重要度):也是看哪些特征更重要
4. PDP圖(多個數(shù)據(jù)的PDP圖就是ICE圖):特征值的大小對預測結(jié)果的影響
5. Shapley值:特征的貢獻
6. LIME
三、CNN的可解釋性分析方法
1. 可視化卷積核、特征圖
淺層:底層像素特征;中層:中層紋理特征;高層:高層語義特征
2. 遮擋、縮放、平移、旋轉(zhuǎn):例如遮擋某個圖片的某個部分,看對預測結(jié)果的影響,從而分析哪些特征對模型影響更大
3. 找到能使某個神經(jīng)元激活的原圖像素或者小圖:例如反卷積
4. 基于類激活熱力圖(CAM)的可視化:找模型的關注點
5. 語義編碼降維可視化:降維到二維、三維這樣人類可以理解的維度
6. 生成滿足某些要求的圖像:生成讓某個類別預測概率最大的圖像
ps:這是學習可解釋機器學習公開課的一些筆記