Bayesian Learning

記錄幾個有收獲的問題:

1. 先驗概率(先驗信息)什么時候有用?

先驗概率比較大的時候,才有參考價值,從艾滋病的例子中可以知道,若先驗概率很小,那么后驗概率基本沒有什么參考價值。此外,若先驗概率很小,計算MAP還不是計算MLP!

2. MAP和MLP的聯(lián)系

極大似然估計是極大MAP的特例,在這種情況下,所有的先驗信息認(rèn)為具有相同的概率,因此可以省略掉先驗概率的計算。

3. 通過MSE作為回歸損失,隱含的假設(shè)是什么?

隱含的假設(shè)是:信號由在作用于輸入后輸出,但是在這個過程中被高斯形式的噪音破壞了。
PS:倘若不是被高斯形式的噪聲破壞,則我們實際上并沒有在給這個“確定性函數(shù)”建模,在這種情況下,事實上我們就做錯了。
推理過程如下圖:


image.png

Minimums description length 最小描述長度

這塊還不太理解,先給出結(jié)論
結(jié)論:從貝葉斯的角度+信息論中的最小描述長度,可以解釋奧卡姆剃刀原則

4. Bayes Learning的最終目標(biāo)?為什么說僅僅找到最優(yōu)假設(shè)是錯誤的?

Bayes Learning的最終目標(biāo)不是Learning,而是為了Inference,而Inference階段不能僅僅用最優(yōu)的假設(shè),而要使用全部的h進(jìn)行投票。

5. 什么是Bayes optimal classifier?

就是通過voting(加權(quán)平均)的方式進(jìn)行分類,稱為貝葉斯最優(yōu)分類器,而不是僅僅選最優(yōu)假設(shè)進(jìn)行分類。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

推薦閱讀更多精彩內(nèi)容