深度學習之Backpropagation算法(一)

其實我本來是不打算學這個算法的。雖然這個算法很基礎,但是跟數學太緊密了,滿屏的公式讓我有種欲哭無淚的感覺??墒?,每次看到深度學習一些新技術的時候,這個算法(或者其變體)總要跳出來干擾我的理解。就跟隔壁老王一樣,你不摸清楚他的來龍去脈,總感覺心里不踏實。

我能怎么辦?我也很絕望啊!在飽受其困擾之后,我決定一探究竟,自己實現以下該算法,順便學習以下python以及NumPy。這代碼一寫,好家伙,我發現之前對epoch和mini_batch的理解都是有偏差的。果然還是要實踐才能發現我只是錯誤的以為我以為我懂了。

[注:已經了解基礎概念的,希望看證明或者詳細介紹backpropagation的,不需要看本篇水文,直接跳到下一篇]

要講Backpropagation,得從基礎的神經網絡說起(前一篇有講到神經網絡和深度學習等這些詞是嘛意思)。神經網絡有許多種形式,比較基礎的一種稱之為feedforward神經網絡(另外還有recurrent神經網絡,這里不涉及)。它是啥意思呢,盜一張圖說明一下:

feedforward神經網絡

簡單點說,就是前一層的輸出,作為后一層的輸入,后一層的輸出(或者中間值)并不對前一層造成影響。
圖中,每個圓圈,代表一個神經元。每一根箭頭,代表一個權重(weight, w),它表示輸出神經元與接收神經元之間聯系的強弱。每個圓圈(除了第一層的)會有一個偏差(bias, b)對應,表示一個修正,是一個與前一層神經元無關的常數。
如果認為前一層的輸出是x的話, 后一層跟前一層關聯的輸入就是
不會輸入公式,我也很苦惱

這玩意用矩陣的方式表示,就是wx(這里w和x都是矩陣, 對于圖中第一層和第二層而言,w是4*6的矩陣,x是6*1的矩陣,為啥我要說這么細,因為這樣子對初學者來說才直觀)。但這里我們還需要加入一個常量起到偏移作用, 所以輸入就是z=wx+b(注意,這里都是矩陣)。但是這樣還沒完,單純這樣的變化,并不能讓神經元的表達能力逆天,所以發明這些的人,又給神經元再套了一個函數,稱之為激活函數(Activation Function),它為神經元的輸出加入非線性特性,增強了神經網絡對訓練數據的學習能力。所以,神經元的輸出就變成了:

神經元輸出

這里的a就是上文中的x。把這個公式不斷地應用到下一層,就可以計算出整個神經網絡的輸出。

深度學習的過程,說白了,就是先隨機(當然并不是完全隨機,里面藏著一些貓膩)生成每一層的w和b,然后用一些方法不斷對它們進行修正。憑什么修正呢?數據!你得預先準備好一堆數據,每個數據的意思就是給定一個輸入(x), 應該得到什么輸出(d)。因為有了輸入之后,一定可以根據上面的公式和已有的w和b(我們已經隨機好了初始值), 算出一個最終輸出(y),算的過程就是上面這個公式一層一層迭代過去。這個輸出(y)跟真正的輸出(d)不一樣。學習過程就是不斷調整w和b, 讓d和y之間的差距盡量小。

這里又有一個地方要注意了,圖中最后一層只有一個神經元,但是實際上最后一層可以有多個神經元的,因此y是一個矩陣。相應的d也是一個矩陣。那怎么定義差距呢?下面兩個公式說明了一種定義方式:

錯誤信號
損失函數(cost function)

這個看起來很直觀吧,就跟幾何上的“距離”類似。不過再次強調一下,這只是損失函數的一種形式(搞機器學習的學者們還發明了一堆奇形怪狀的損失函數,腦洞之大,我只能說在下心服口服)。

本來只想寫backpropagation的,因為網上很多推導不全,或者講得不夠直白。但沒想到只是介紹最最基礎的東西, 就這么多了, 那剩余的部分,待下回分解吧。

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,527評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,687評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事?!?“怎么了?”我有些...
    開封第一講書人閱讀 178,640評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,957評論 1 318
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,682評論 6 413
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 56,011評論 1 329
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 44,009評論 3 449
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,183評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,714評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,435評論 3 359
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,665評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,148評論 5 365
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,838評論 3 350
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,251評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,588評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,379評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,627評論 2 380

推薦閱讀更多精彩內容