InceptionV2

綜述

InceptionV2的核心思想來自Google的《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》[1]和《Rethinking the Inception Architecture for Computer Vision》[2]這兩篇論文。它根據第一篇論文加入了BN層。根據第二篇論文用一系列更小的卷積核(3x3)替代了原來的大卷積核(5x5,7x7)[3]。

Batch Normalization

第一篇論文中提出了Internal Covariate Shift這個問題,文章中說,在訓練神經網絡的過程中,因為前一層的參數變化而導致每層的輸入分布都在不斷變化(the distribution of each layer’s inputs changes during training, as the parameters of the previous layers change.)。這使得我們需要更低的學習率和更小心地進行參數初始化,導致我們難以充分構建一個具有飽滿地非線性結構的模型,而這個現象就被稱作Internal Covariate Shift。

為了解決這個問題,Google提出了Batch Normalization(批規范化)[4]。即在每次SGD時,通過mini-batch來對相應的activation做歸一化操作,使得結果(輸出信號各個維度)的均值為0,方差為1,其具體做法如圖1第三步(normalize).在Normalization完成后,Google的研究員仍對數值穩定性不放心,又加入了兩個參數gammabeta,進行了scale and shift,如圖1第四步。注意到,如果我們令gamma等于之前求得的標準差,beta等于之前求得的均值,則這個變換就又將數據還原回去了。兩個參數與每層的W和b一樣,是需要迭代求解的[5]。

圖1

而這兩個參數gammabeta的迭代求解過程,在論文中也給了出來,也是在反向傳播的過程中算損失函數對gamma和beta兩個參數的導數,還要求損失函數對Wx+b中的x的導數,以便使誤差繼續向后傳播。其具體過程如圖2所示,使用了鏈式法則。
圖2

最后,文章給出了訓練一個BN網絡的方法,如圖3.在訓練的最后一個epoch時,要對這一epoch所有的訓練樣本的均值和標準差進行統計,這樣在一張測試圖片進來時,使用訓練樣本中的標準差的期望和均值的期望對測試數據進行歸一化,注意這里標準差使用的期望是其無偏估計,如圖3第10步所示。
圖3

實際上,在tensorflow的源碼里,inceptionV1也已經使用了Batch Normalization,只是給了一個參數用來選擇是否使用,而從inceptionV2開始去掉了這個參數,都使用BN算法了。

更小的卷積核

大尺寸的卷積核可以帶來更大的感受野,但也意味著更多的參數,比如5x5卷積核參數是3x3卷積核的25/9=2.78倍。為此,作者提出可以用2個連續的3x3卷積層(stride=1)組成的小網絡來代替單個的5x5卷積層,(保持感受野范圍的同時又減少了參數量)[6],并且可以避免表達瓶頸,加深非線性表達能力,如圖4.

圖4.用兩個3x3卷積核替代5x5卷積核

同時,作者提出了兩個問題并給出了回答:

  1. 這種替代會造成表達能力的下降嗎? 后面有大量實驗可以表明不會造成表達缺失;
  2. 3x3卷積之后還要再加激活嗎? 作者也做了對比試驗,表明添加非線性激活會提高性能。
    這樣,新的inception結構如圖5所示。
圖5.InceptionV2

其代碼實現如下所示:

with tf.variable_scope(end_point):
        with tf.variable_scope('Branch_0'):
          branch_0 = slim.conv2d(net, depth(64), [1, 1], scope='Conv2d_0a_1x1')
        with tf.variable_scope('Branch_1'):
          branch_1 = slim.conv2d(
              net, depth(64), [1, 1],
              weights_initializer=trunc_normal(0.09),
              scope='Conv2d_0a_1x1')
          branch_1 = slim.conv2d(branch_1, depth(64), [3, 3],
                                 scope='Conv2d_0b_3x3')
        with tf.variable_scope('Branch_2'):
          branch_2 = slim.conv2d(
              net, depth(64), [1, 1],
              weights_initializer=trunc_normal(0.09),
              scope='Conv2d_0a_1x1')
          branch_2 = slim.conv2d(branch_2, depth(96), [3, 3],
                                 scope='Conv2d_0b_3x3')
          branch_2 = slim.conv2d(branch_2, depth(96), [3, 3],
                                 scope='Conv2d_0c_3x3')
        with tf.variable_scope('Branch_3'):
          branch_3 = slim.avg_pool2d(net, [3, 3], scope='AvgPool_0a_3x3')
          branch_3 = slim.conv2d(
              branch_3, depth(32), [1, 1],
              weights_initializer=trunc_normal(0.1),
              scope='Conv2d_0b_1x1')
        net = tf.concat(3, [branch_0, branch_1, branch_2, branch_3])
        end_points[end_point] = net

總結

在我看來,inceptionV2更像一個過渡,它是Google的工程師們為了最大程度挖掘inception這個idea而進行的改良,它使用的Batch Normalization是對inceptionV1的一個補充,而用小的卷積核去替代大的卷積核這一點,在inceptionV3中發揚光大,實際上,《Rethinking the Inception Architecture for Computer Vision》這篇論文正是tensorflow源碼中所寫的incptionV3的核心論文,而這篇論文中把提出的新的網絡結構稱作inceptionV2(而代碼實現卻叫inceptionV3)。這大概也是Google的工程師和科學家們的一個小失誤吧,不過從這里也可以看出inceptionV2也是對新思想的一個嘗試。

Reference

[1]Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

[2]Rethinking the Inception Architecture for Computer Vision
[3]googleNet Inception v1 - v4 papers 發展歷程(CSDN)
[4]深度學習中 Batch Normalization為什么效果好?(知乎)
[5]“Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift”閱讀筆記與實現
[6]Inception in CNN(CSDN)

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,501評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,673評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,610評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,939評論 1 318
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,668評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 56,004評論 1 329
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 44,001評論 3 449
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,173評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,705評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,426評論 3 359
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,656評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,139評論 5 364
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,833評論 3 350
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,247評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,580評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,371評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,621評論 2 380

推薦閱讀更多精彩內容