Screenshot 2023-01-31 at 11.19.52.png
- 推斷是數(shù)學(xué)領(lǐng)域一個非常重要的概念。簡單來說, Inference指的是根據(jù)已經(jīng)有的有限的知識,去推測未知的知識。而使用貝葉斯概率論的方法進行推斷,就被成為Bayesian Inference貝葉斯推斷。
- 貝葉斯推斷主要包括兩種:Estimation-based和Sampling-based。共同的目標(biāo)都是為了能夠求出后驗概率分布
。
- Sampling-based method顧名思義,就是利用采樣的方法來求后驗概率分布。
- Monte Carlo方法是用模擬采樣代替計算。經(jīng)典的例子是求正方形中的圓形的面積,我就不贅述了。這種方法可以用在離散的情況,只需要均勻采樣
然后去計算它統(tǒng)計量的情況就行了。連續(xù)的情況就是借助概率分布函數(shù),找到概率分布函數(shù)對應(yīng)的統(tǒng)計量。
- MCMC其實可以看做是Monte Carlo的升級版。MC是隨機的給
然后去統(tǒng)計情況,忽略了采樣出來的樣本之間的聯(lián)系。就想挖礦一樣,這里挖出來金子,那就在這旁邊接著挖呀。所以MCMC增加了一個markov chain的依賴,就是下一次采樣的地方是和這一次有關(guān)系的。我們首先定義一個初始的
然后,根據(jù)
去采樣下一次的
,然后通過一個和后驗概率相關(guān)的accept/reject標(biāo)準(zhǔn),決定是不是接受這個
,接收就更新到這個
并且把它加入到肯德基豪華午餐。
- 注意,我們要接受一件事,就是markov chain一直乘下去一定可以收斂到某一個狀態(tài)不動了。而且我們這種accept/reject的方式收斂到的狀態(tài)恰好是我們想要的后驗概率。
- MCMC啟動階段采樣出來的樣本是不能用的。
- MCMC是個父類,有很多實現(xiàn)包括metroplis-hastings, gibbs, rejection sampling
- Monte Carlo方法是用模擬采樣代替計算。經(jīng)典的例子是求正方形中的圓形的面積,我就不贅述了。這種方法可以用在離散的情況,只需要均勻采樣
- Estimation-based method就是通過建模一個函數(shù),去估計出后驗概率,利用數(shù)據(jù)去優(yōu)化這個函數(shù)的參數(shù),從而越來越接近真實分布,有點機器學(xué)習(xí)的意思了。
- Variational inference. VI其實就是直接對后驗概率
建模,構(gòu)造一個函數(shù)
。然后通過計算這兩個分布之間的KL散度作為優(yōu)化目標(biāo),通過不斷地優(yōu)化這個目標(biāo)可以縮小估計誤差最終得到一個合理的后驗分布,有了后驗分布我們也能去采樣得到新的
- VAE其實和VI關(guān)系沒那么大,但是也是構(gòu)造了一個q去估計
,但是呢,這里降維了。另外呢,還建模了一個decoder
,把這個隱變量再還原成
。注意這里的兩個建模都是用的神經(jīng)網(wǎng)絡(luò),并且因為多了一個decoder,這個模型更多的是用來做一些生成,所以是generative models.
- Variational inference. VI其實就是直接對后驗概率