計算機視覺漫談(4)
學號:14020199025
姓名:徐銘晟
【嵌牛導讀】:上次我們粗略地談了談線性回歸算法,今天這篇文章算上次文章的衍生。
【嵌牛鼻子】:監督學習 線性回歸 圖像分類
【嵌牛正文】:
前篇文章,圍繞的線性回歸主要是關于一次方程的,這詞詳細講講多維的。
在機器學習中,這塊統稱為linear regression,這里截取PRML中的一幅圖詳細說明一下。
假設我們的樣本點是sin函數+高斯噪聲產生的,我們希望能通過這幾個樣本點,擬合這個函數,從而得到較為準確的預測,我們可以利用之前談到的函數擬合方法
這是我們上次講的一階函數擬合。當然我們可以仿照之前的方法,開展二階,三階甚至n階函數擬合。
利用三階的結果圖如下:
可以看到三階函數擬合叫好地擬合了我們的目標曲線。下面我們看一下高階函數擬合情況:
可以看到雖然高階使得樣本點完美地嵌入我們的曲線中,但是這條曲線并不是我們需要的。解決措施就是在后面加上正則項,有興趣的可以參考http://blog.csdn.net/liyuan123zhouhui/article/details/51882926。在這里略微提一句,不同地正則項帶來的效果不同,比如一階會帶來sparse效果。
之前的n階擬合,這個n階方程也常常被稱為basia function。利用基函數擬合任意函數這塊哦的學科得涉及到泛函。在實際中,這個基函數也有別的選擇,詳見下表: