TensorFlow深度學習筆記 從線性分類器到深度神經網絡

轉載請注明作者:夢里風林
Github工程地址:https://github.com/ahangchen/GDLnotes
歡迎star,有問題可以到Issue區討論
官方教程地址
視頻/字幕下載

Limit of Linear Model

  • 實際要調整的參數很多


如果有N個Class,K個Label,需要調整的參數就有(N+1)K個

  • Linear Model不能應對非線性的問題


  • Linear Model的好處

    • GPU就是設計用于大矩陣相乘的,因此它們用來計算Linear Model非常efficient
    • Stable:input的微小改變不會很大地影響output
    • 求導方便:線性求導是常數
  • 我們希望參數函數是線性的,但整個model是非線性的

  • 所以需要對各個線性模型做非線性組合

    • 最簡單的非線性組合:分段線性函數(RELU)

Neural network

  • 用一個RELU作為中介,一個Linear Model的輸出作為其輸入,其輸出作為另一個Linear Model的輸入,使其能夠解決非線性問題
  • 神經網絡并不一定要完全像神經元那樣工作
  • Chain Rule:復合函數求導規律
  • Lots of data reuse and easy to implement(a simple data pipeline)
  • Back propagation
  • 計算train_loss時,數據正向流入,計算梯度時,逆向計算
  • 計算梯度需要的內存和計算時間是計算train_loss的兩倍

Deep Neural Network

Current two layer neural network:

優化:

  • 優化RELU(隱藏層), wider
  • 增加linear層,layer deeper


  • Performance: few parameters by deeper
  • 隨層級變高,獲得的信息越綜合,越符合目標


About t-model

  • t-model只有在有大量數據時有效
  • 今天我們才有高效的大數據訓練方法:Better Regularization
  • 難以決定適應問題的神經網絡的規模,因此通常選擇更大的規模,并防止過擬合

Avoid Overfit

Early Termination

  • 當訓練結果與驗證集符合度下降時,就停止訓練


Regulation

  • 給神經網絡里加一些常量,做一些限制,減少自由的參數
  • L2 regularization

在計算train loss時,增加一個l2 norm作為新的損失,這里需要乘一個β(Hyper parameter),調整這個新的項的值

Hyper parameter:拍腦袋參數→_→

  • l2模的導數容易計算,即W本身

DropOut

最近才出現,效果極其好

  • 從一個layer到另一個layer的value被稱為activation

  • 將一個layer到另一個layer的value的中,隨機地取一半的數據變為0,這其實是將一半的數據直接丟掉

  • 由于數據缺失,所以就強迫了神經網絡學習redundant的知識,以作為損失部分的補充

  • 由于神經網絡中總有其他部分作為損失部分的補充,所以最后的結果還是OK的

  • More robust and prevent overfit

  • 如果這種方法不能生效,那可能就要使用更大的神經網絡了

  • 評估神經網絡時,就不需要DropOut,因為需要確切的結果

  • 可以將所有Activation做平均,作為評估的依據

  • 因為我們在訓練時去掉了一半的隨機數據,如果要讓得到Activation正確量級的平均值,就需要將沒去掉的數據翻倍


覺得得我的文章對您有幫助的話,就給個star吧~

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,825評論 6 546
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,814評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,980評論 0 384
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 64,064評論 1 319
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,779評論 6 414
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 56,109評論 1 330
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 44,099評論 3 450
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,287評論 0 291
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,799評論 1 338
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,515評論 3 361
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,750評論 1 375
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,221評論 5 365
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,933評論 3 351
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,327評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,667評論 1 296
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,492評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,703評論 2 380

推薦閱讀更多精彩內容