嘿哈!小y同學換個賬號來造作呀!
心里一直揣著大牛Andrew NG的ML課程……半懂不懂,久久不能釋懷
今天腦袋一抽……翻墻Coursera走起!重新從第一周開始看起,天哪……1.5倍速刷了視頻,感覺I can sail through it!
簡單稍微寫一下第一周的:
What is ML?
Just Experience---E,task---T,performance measure ---P,就是在training set的基礎上,解決一個任務,用p來測量任務完成得好不好,不好咋辦捏?從E上繼續學唄!
然后呢,主要是supervised learning和unsupervised learning,這倆啥區別咩,一個是how to do,另一個呢,是learn by itself。第一個從數據集里直接得出結論,包括classification 和regression,第二個呢……現在還沒太搞明白呢呢呢
Regression
先來單變量線性回歸滴,叫個linear regression with one variable
好幾個視頻講了個啥尼
3個公式吧:
1Hypothesis:hx=thet1+thet2X
2Cost function:J thet=1/2m求和(hxi-yi)^2
3Gradient decent:就是求出讓代價函數達到最小值時候的thet值咩
Thet1=thet1-a*1/mSUM(hxi-hi)
Thet2=thet2-a*1/mSUM(hxi-hi)xi
Thet好難打,還不知道對不對……
除去各種例子,最核心的就是這個了叭……先假設函數然后求代價函數,然后用梯度下降算出最小值來……最后捏就得到算法了……
This is the hand of Jobs!