[機器學習入門] 李宏毅機器學習筆記-23(Support Vector Machine;支持向量機)

[機器學習入門] 李宏毅機器學習筆記-23(Support Vector Machine;支持向量機)

PDF VIDEO

Support Vector Machine

Outline

這里寫圖片描述

Hinge Loss

Binary Classification

分為三步。
δ不可微分,所以變化一下。

這里寫圖片描述

step 2 :Loss function

紅色這條線就是Square Loss的表現(xiàn),與黑色的理想loss曲線比較,當x很大是,將會取得很大的值,這是不合理的,既然如此,我們再試一下Square Loss+cross entropy。

這里寫圖片描述

藍色這條線就是Sigmoid+Square loss,但是實際上,Square的performance并不好,用cross entropy更合理,就是綠色那條線,當橫坐標趨近無窮大時,趨近于0,如果負無窮,則會無窮大。比較一下藍綠兩條線,如果我們橫坐標,從-2移到-1,綠色這條線變化很大,藍色反之,造成的效果就是,橫坐標非常negative時,綠色調(diào)整參數(shù)可以取得較好的回報,所以它很樂意把negative的值變大,而藍色反之,很懶惰。

這里寫圖片描述

而Hinge Loss為紫色線表示。

這里寫圖片描述

如果比較紫綠兩條線,它們最大的不同就是對待做得好的example的態(tài)度,如果把橫坐標從1挪到2,對綠色來說它會有動機把橫坐標變得更大,而紫色對此的態(tài)度是及格就好,不會再努力變大。

Linear SVM

Compared with logistic regression, linear SVMhas different loss function

這里寫圖片描述

Linear SVM – gradient descent

SVM通常不用gradient descent做,但也是可以做的。

這里寫圖片描述

Linear SVM – another formulation

這里寫圖片描述

Kernel Method

Dual Representation

這里寫圖片描述
這里寫圖片描述

我們只需要能算出K(x,z)就可以了,這就是Kernel Trick。

Kernel Trick

這里寫圖片描述
這里寫圖片描述
這里寫圖片描述

Radial Basis Function Kernel

衡量x與z的相似度,在無窮多維上去做事情

這里寫圖片描述

Sigmoid Kernel

這里寫圖片描述
這里寫圖片描述

SVM related methods

* Support Vector Regression (SVR)
   [Bishop chapter 7.1.4]
* Ranking SVM
   [Alpaydin, Chapter 13.11]
* One-class SVM
   [Alpaydin, Chapter 13.11]

SVM vs Deep Learning

這里寫圖片描述
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

推薦閱讀更多精彩內(nèi)容