計算機視覺4

計算機視覺漫談(4)

學號:14020199025

姓名:徐銘晟

【嵌牛導讀】:上次我們粗略地談了談線性回歸算法,今天這篇文章算上次文章的衍生。

【嵌牛鼻子】:監督學習 線性回歸 圖像分類

【嵌牛正文】:

前篇文章,圍繞的線性回歸主要是關于一次方程的,這詞詳細講講多維的。

在機器學習中,這塊統稱為linear regression,這里截取PRML中的一幅圖詳細說明一下。


假設我們的樣本點是sin函數+高斯噪聲產生的,我們希望能通過這幾個樣本點,擬合這個函數,從而得到較為準確的預測,我們可以利用之前談到的函數擬合方法


這是我們上次講的一階函數擬合。當然我們可以仿照之前的方法,開展二階,三階甚至n階函數擬合。

利用三階的結果圖如下:


可以看到三階函數擬合叫好地擬合了我們的目標曲線。下面我們看一下高階函數擬合情況:


可以看到雖然高階使得樣本點完美地嵌入我們的曲線中,但是這條曲線并不是我們需要的。解決措施就是在后面加上正則項,有興趣的可以參考http://blog.csdn.net/liyuan123zhouhui/article/details/51882926。在這里略微提一句,不同地正則項帶來的效果不同,比如一階會帶來sparse效果。

之前的n階擬合,這個n階方程也常常被稱為basia function。利用基函數擬合任意函數這塊哦的學科得涉及到泛函。在實際中,這個基函數也有別的選擇,詳見下表:


最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容