最近寫(xiě)pytorch的時(shí)候用到了這個(gè)函數(shù):torch.nn.functional.interpolate 一時(shí)沒(méi)太懂這個(gè)函數(shù)是干嘛的,所以看了下...
作者:林夕 本文長(zhǎng)度為10000字,建議閱讀10+分鐘 對(duì)于信任和管理我們的人工智能“合作伙伴”,可解釋AI則至關(guān)重要。 目錄 1.1 可解釋的...
摘要 這一篇文章我們會(huì)介紹一種模型解釋的方法, LIME, 即會(huì)通過(guò)簡(jiǎn)單的模型來(lái)解釋黑盒模型. 我們會(huì)介紹LIME的簡(jiǎn)單的原理, 和一個(gè)例子, ...
參數(shù)量計(jì)算—— 卷積層的參數(shù)數(shù)量就是一個(gè)卷積核的參數(shù)乘上卷積核的個(gè)數(shù) 和分別表示卷積核的高和寬,一般二者相等,表示卷積核的厚度,即輸入的通道數(shù);...
摘要 這一篇文章主要介紹模型解釋的一種方法, Shapley Value. 這里會(huì)介紹這種方法的原理, 對(duì)其公式進(jìn)行介紹. 同時(shí)會(huì)舉兩個(gè)例子來(lái)進(jìn)...
https://mathpretty.com/10699.html 摘要 這一篇文章主要介紹一下關(guān)于SHAP方法,會(huì)介紹關(guān)于Shapley Va...
轉(zhuǎn)載:https://blog.csdn.net/weixin_41068770/article/details/102395685 激活函數(shù):...
這兩天查閱關(guān)于空間聚類方法的文獻(xiàn),發(fā)現(xiàn)近年的研究熱點(diǎn)是高維數(shù)據(jù)的聚類方法。在大數(shù)據(jù)背景下,不僅數(shù)據(jù)量增大,數(shù)據(jù)的維度也自低變高,從過(guò)去的一維、二...
局部加權(quán)回歸法對(duì)機(jī)器學(xué)習(xí)中線性回歸法的改進(jìn)。 改進(jìn)的起因在于普通的線性回歸努力尋找的是一個(gè)使得全局損失函數(shù)最小的模型(全局最優(yōu)),這個(gè)模型對(duì)于整...