吳恩達-神經網絡和深度學習( 第三周 淺層神經網絡:)

未經允許,不得擅自改動和轉載

學習使用前向傳播和反向傳播搭建出有一個隱藏層的神經網絡。

  • hidden layer Neural Network

3.1 神經網絡概覽

Neutral Network

3.2 神經網絡表示

  • 雙層神經網絡(只有一個隱藏層,單隱層神經網絡)
  • 輸入層-四個隱藏層單元-輸出層
  • 雙層神經網絡。不把輸入層看做一個標準的層
  • 這里的隱藏層有兩個相關的參數w和b,使用上標[1]表示這些參數,w是4x3矩陣,b是4x1向量(4代表有四個節點或者隱藏單元,3來自于3個輸入特征)
  • 輸出層也有相關的參數w^[2] (1x4,隱藏層有四個隱藏單元,輸出層只有一個單元),b^[2]【1x1】
神經網絡表示

3.3 計算神經網絡的輸出

gengrate 生成
compute 計算
matrix 矩陣

image.png
image.png
  • 神經網絡只不過是計算這些步驟很多次
image.png
image.png

3.4 多個例子中的向量化

訓練樣本橫向堆疊構成矩陣X

  • m個訓練樣本
  • 用激活函數來表示這些式子a^[2](i)【i是訓練樣本i,2指的是第二層】
image.png
  • 一個for循環遍歷所有的m訓練樣本
  • 向量化
image.png

3.5 向量化實現的解釋

image.png

這就是對不同訓練樣本向量化的神經網絡,接下來,我們目前為止我們一直都是用sigmoid函數

image.png

3.6 激活函數(activation function)

如何使用不同種類的激活函數,simoid只是其中的一個可能選擇

  • 為了搭建神經網絡,可以選擇的是選擇隱層里用哪個激活函數,還有神經網絡的輸出單元用什么激活函數
    有一個函數總比sigmoid函數表現好,那就是a=tanh(z)(雙曲正切函數),
    函數介于+1和-1之間,意味著激活函數的平均值更接近0

但 二分分類是,輸出層最好用sigmoid,因為y輸出介于0-1更合理

image.png

不過,sigmoid和tanh函數都有一個缺點,如果z非常大,或非常小,函數的斜率很接近0,這樣會拖慢梯度下降算法

修正線性單元(ReLU)就派上用場了(z為正,斜率為1,為負,斜率為0)

image.png

在選擇激活函數時有一些經驗法則

  • 如果你的輸出值是0或1,如果你在做二元分類,那么sigmoid很適合作為輸出層的激活函數,然后其他所有單元都用ReUL。
    如果你不確定隱層應該用哪個,那就用ReUL作為激活函數

還有個帶泄露的ReUL(z小于0是有一個緩緩的斜率,)通常比ReUL激活函數好,不過實際中使用的頻率沒那么高

在實踐中使用ReUL激活函數,學習速度通常會快得多,比使用tanh或sigmoid激活函數快得多,因為ReUL沒有函數斜率接近0時,減慢學習速度的學習速度的效應

說一下幾個激活函數

  • sigmoid
    除非用在二元分類的輸出層,不然絕對不要用,或者幾乎從來不會用

  • 最常用的默認激活函數ReLU,不確定用哪個,就用這個,或者帶泄露的ReLU(max(0.01z, z))

image.png

3.7 為什么需要非線性激活函數(nonlinear activation function)?

如果用線性激活函數(linear activation function)或者叫做恒等激活函數,那么神經網絡只是把輸入線性組合再輸出,
無論你的神經網絡多少層,一直在做的只是計算線性激活函數,和沒有任何的標準Logistic回歸是一樣的,因為兩個線性函數組合的本身就是線性函數,除非你引用非線性,

  • 只有一個地方可以使用線性激活函數g(z) = z,就是你要機器學習的是回歸問題,所以y是一個實數,
  • 線性激活函數不可能用在隱藏層(除壓縮),要用,也是用在輸出層,


    image.png

3.8 激活函數的導數

接下來討論梯度下降的基礎,如何估計,如何計算單個激活函數的導數,斜率,

image.png
image.png
image.png
image.png

3.9 神經網絡的梯度下降法

梯度下降算法的具體實現,如何處理單隱層神經網絡,
提供所需的方程,來實現反向傳播,或者說梯度下降算法,

keepdims = true(確保python輸出的是矩陣)

  • 正向傳播 4個方程
  • 反向傳播 6個方程
image.png

3.10 (選修)直觀理解反向傳播

3.11 隨機初始化

當你訓練神經網絡時,隨機初始化權重非常重要,對于logistic回歸,可以將權重初始化為零,
但如果將神經網絡各參數數組初始化為0,再使用梯度下降算法(gredient descent),那會完全失效

因為我們需要兩個不同的隱藏單元,去計算不同的函數,這個問題的解決方案是隨機初始化所有參數,

  • 可以令W^[1] = np.random,randn, 這可以產生參數為(2, 2)的高斯分布隨機變量,然后你再乘以一個很小的數字【因為通常喜歡把權重矩陣初始化非常小的隨機數】,所有你將權重初始化很小的隨機數,
  • 如果訓練單隱層神經網絡時,沒有太多的隱藏層,設為0.01還可以,但當訓練一個很深的神經網絡時,可能要試試0.01以外的常數,
  • 把b初始化0是可以的
隨機初始化

所以,在這周的視頻里,你知道如何設立單隱層神經網絡,初始化參數,并用正向傳播計算預測值,還有計算導數,然后使用梯度下降,反向傳播

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,836評論 6 540
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,275評論 3 428
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 177,904評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,633評論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,368評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,736評論 1 328
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,740評論 3 446
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,919評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,481評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,235評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,427評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,968評論 5 363
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,656評論 3 348
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,055評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,348評論 1 294
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,160評論 3 398
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,380評論 2 379

推薦閱讀更多精彩內容