四:線性回歸算法(20191125-1201)

0x00 目標

簡單線性回歸:回顧簡單線性回歸及最小二乘法的數據推導

實踐:簡單線性回歸實現及向量化應用

多元線性回歸:多選線性回歸和正規方程解及實現

0x01 簡單線性回歸(回顧 第二篇0x04)

0x02?多元線性回歸

求解思路也與簡單線性回歸非常一致,目標同樣是:已知訓練數據樣本x、y ,找到θ,使公式:

?盡可能小。

改寫成向量點乘形式

向量化,已知訓練數據樣本x、y ,找到θ,使公式:

?盡可能小。

多元線性回歸的正規方程解

缺點是時間復雜度較高:O(n^3)

0x02 python實現多元回歸

注意點:
1、np.hstack(tup):參數tup可以是元組,列表,或者numpy數組,返回結果為numpy的數組。按列順序把數組給堆疊起來(加一個新列)。

2、np.ones():返回一個全1的n維數組,有三個參數:shape(用來指定返回數組的大小)、dtype(數組元素的類型)、order(是否以內存中的C或Fortran連續(行或列)順序存儲多維數據)。后兩個參數都是可選的,一般只需設定第一個參數。(類似的還有np.zeros()返回一個全0數組)

3、numpy.linalg模塊包含線性代數的函數。使用這個模塊,可以計算逆矩陣、求特征值、解線性方程組以及求解行列式等。inv函數計算逆矩陣

4、T:array的方法,對矩陣進行轉置。

5、dot:點乘

0x03 小結

多元線性回歸的正規方程解,看上去簡單但是時間復雜度高。其實除了使用正規方程解以外,還可以使用大名鼎鼎的梯度下降法。梯度下降法不僅可以解決線性問題,更是解決機器學習的最優模型的通用算法。

0x04?梯度下降法

4.1 梯度下降(Gradient Descent, GD)

每個模型都有自己的損失函數,不管是監督式學習還是非監督式學習。在學習簡單線性回歸時,我們使用最小二乘法來求損失函數的最小值,但是這只是一個特例。在絕大多數的情況下,損失函數是很復雜的(比如邏輯回歸),根本無法得到參數估計值的表達式。因此需要一種對大多數函數都適用的方法。這就引出了“梯度算法”。

梯度下降(Gradient Descent, GD),不是一個機器學習算法,而是一種基于搜索的最優化方法。梯度下降優化算法,其作用是用來對原始模型的損失函數進行優化,以便尋找到最優的參數,使得損失函數的值最小。從損失值出發,去更新參數,且要大幅降低計算次數。

4.2 梯度(gradient)

梯度下降算法作為一個聰明很多的算法,抓住了參數與損失值之間的導數,也就是能夠計算梯度(gradient),通過導數告訴我們此時此刻某參數應該朝什么方向,以怎樣的速度運動,能安全高效降低損失值,朝最小損失值靠攏。

多元函數的導數(derivative)就是梯度(gradient),分別對每個變量進行微分,然后用逗號分割開,梯度是用括號包括起來,說明梯度其實一個向量,損失函數L的梯度為:

導數就是變化率。

梯度是向量,和參數維度一樣

在單變量的函數中,梯度其實就是函數的微分,代表著函數在某個給定點的切線的斜率 在多變量函數中,梯度是一個向量,向量有方向,梯度的方向就指出了函數在給定點的上升最快的方向

梯度指向誤差值增加最快的方向,導數為0(梯度為0向量)的點,就是優化問題的解。

4.3 致命問題

從理論上,梯度算法只能保證達到局部最低點,而非全局最低點。

解決方案:首先隨機產生多個初始參數集,即多組;然后分別對每個初始參數集使用梯度下降法,直到函數值收斂于某個值;最后從這些值中找出最小值,這個找到的最小值被當作函數的最小值。

4.4 Python實現梯度下降

4.4.1 Scipy庫中的derivative方法

scipy.misc.derivative(func, x0, dx=1.0, n=1, args=(), order=3)[source]

參數:

func:需要求導的函數,只寫參數名即可,不要寫括號,否則會報錯

x0:要求導的那個點,float類型

dx(可選):間距,應該是一個很小的數,float類型

n(可選):n階導數。默認值為1,int類型

args(可選):參數元組

order(可選):使用的點數必須是奇數,int類型

4.4.2 Sympy表達式求導

sympy是符號化運算庫,能夠實現表達式的求導。

"""

import sympy as sy

x = sy.Symbol('x')

"""

博客https://www.cnblogs.com/zyg123/ 中有更多關于Sympy的相關文章。

4.4.3 模擬實現梯度下降

1.構造一個損失函數loss(x),并求出對應的損失函數值。

2.定義一個求導的方法。(計算損失函數在當前點的對應導數,輸入當前數據點theta,輸出在損失函數上的導數)

3.進行梯度下降。(首先定義一個點θ作為初始值,正常應該是隨機的點,但是這里可先直接定為0。然后需要定義學習率η?,也就是每次下降的步長。這樣的話,點θ每次沿著梯度的反方向移動η距離,即θ=θ-η*▽f?,然后循環這一下降過程。設定一個非常小的數作為損失函數值的閾值,結束循環。)

0x05 梯度下降之前需要使用歸一化

5.1 目標

5.2 推導過程

用梯度下降法來求損失函數最小值時,需要對損失函數進行設計。

θ=(θ0,,θ1,θ2...,θn)列向量,構造第0個特征X0恒等于1,改寫成向量點乘形式:

對其求導,有:

寫成向量:

5.3 最終得到的梯度

參考閱讀:

1.模型之母:簡單線性回歸&最小二乘法(第二周:評價模型的好壞(20191111-17):0x04簡單線性回歸

2.模型之母:簡單線性回歸的代碼實現(第二周:評價模型的好壞(20191111-17):0x04簡單線性回歸

3.模型之母:多元線性回歸

4.《機器學習》周志華著,第3章 線性模型(P53)

5.《精通數據科學:從線性回歸到深度學習》第四章

6.還不了解梯度下降法?看完這篇就懂了!

7.手動實現梯度下降(可視化)

8.線性回歸中的梯度下降(代碼有些bug仍需調試)

代碼另附。

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,406評論 6 538
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,034評論 3 423
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 177,413評論 0 382
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,449評論 1 316
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,165評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,559評論 1 325
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,606評論 3 444
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,781評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,327評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,084評論 3 356
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,278評論 1 371
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,849評論 5 362
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,495評論 3 348
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,927評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,172評論 1 291
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,010評論 3 396
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,241評論 2 375

推薦閱讀更多精彩內容