生物醫學圖像語義分割(一)FCN

Index

  • Introduction
  • Analysis
  • FC layer -> Convolutional layer
  • Fine tune
  • Up-Sampling
  • Skip-layer

Introduction

CVPR2015最佳論文<Fully Convolutional Networks for Semantic Segmentation>介紹了FCN網絡用于語義分割。該論文提出了端對端的FCN(全卷積網絡),使用了pixel級別的預測以及有監督學習預訓練。此外,論文中的網絡可以接受任意大小的圖片輸入。

通常的CNN網絡包含以下結構: [INPUT - CONV - RELU - POOL - FC].

  • 卷積層 convolution
  • ReLu
  • 池化層 pooling
  • 全連接層 fully connected

在論文中,FCN將全連接層替換為卷積層和轉置卷積層,端對端得生成語義分割圖像。如下圖:

FCN

Analysis

FC layer -> Convolutional layer

卷積層與全連接層的區別在于,卷積層是局部感知并且共享權值的。也就是說,卷積層在某個時刻只作用于某個局部區域,通過移動filter,來達到不同的局部區域共享權值。而在全連接層中,比如32個神經元連接到64個神經元時候,有[32x64]個權值,即每一個輸入層都與每一個輸出層連接,并有自己的權值。
實際上,由于全連接層與卷積層與輸入的計算方式都為點乘,因此可以實現全連接層與卷積層的相互轉換:

  1. 對于每一個卷積層conv,都有全連接層fc與其表示相同的forward function。此時fc中大多數區域都為0,只存在某些塊有值(由于局部連接)。而這些塊的值相同(由于共享權值)。
  2. 同樣的,對于每一個fc,都有conv與其表示相同的forward function。例如,當輸入為[7x7x512]時,假設fc輸出層size為4096,則有7x7x512x4096個weights. 此時用conv層代替fc,則filter為[7x7x512], strides=1, padding=0, 輸出size為[1x1x4096]。

Fine-tune

文章采用了fine-tune的方法,采用了在ImagenNet訓練好的VGG,AlexNet,GoogLeNet。具體來講,文章對訓練好的模型全連接層進行fine-tune,將訓練好模型最后的全連接層變為卷積層以及Up-sampling層,再對其進行訓練。
Fine-tune一般分為下面幾種情況:
(1)新數據集小而且與原數據集相似。由于數據集小,容易出現過擬合的問題,此時不應該對ConvNet進行fine-tune,而是將訓練好的模型作為特征提取模型,然后再對提取的特征訓練一個線性分類器如(SVM,Softmax分類器等)。
(2)新數據集很大并且與原數據集相似。此時由于有更多的數據,我們不需要擔心過擬合問題,因此可以對整個網絡進行fine-tune。
(3)新數據集很小但是與原數據集很不相同。由于數據集很小,我們同樣只訓練一個線性分類器。但是此時數據集和原數據集差別較大,我們使用訓練好的網絡淺層提取的特征來訓練線性分類器,而非使用深層特征。CNN深層卷積核通常會提取更高維的特征。這些高維特征與數據集是相對應的,如AlexNet中,可能存在能夠提取狗胡子特征的卷積核,而我們的新數據是關于車輛識別時,就不應該使用高維特征。
(4)新數據集很大而且與原數據集相差較大。此時我們可以從頭訓練一個CNN網絡,將大數據集訓練好的CNN網絡參數用于初始化新模型參數。

更多關于Fine-tune的內容可以等待正在寫的一篇關于遷移學習的文章。(此處應有鏈接)

Up-Sampling

Up-Sampling(升采樣)是Deconvolution的應用之一。在FCN中,池化造成了圖像尺寸成倍縮小,要端對端得生成分割圖像,則需要升采樣,在這里的語義下,也就是Deconvolution(逆卷積)。
Deconvolution(逆卷積)還有一個叫法為轉置卷積(在tensorflow中)。轉置卷積是卷積做相反的正向和反向傳播操作。
卷積操作時,令y = Cx,其中C為weights矩陣。則反向傳播時候:

equation.png

在Deconvolution的情況下,正向傳播y‘=C_Tx', 反向傳播為C乘偏導。
Deconvolution還可以應用在無監督學習以及卷積可視化中

Skip-layer

實驗發現,直接對訓練好的VGG16進行fine-tune并在最后進行up-sampling的效果并不好,如下圖:

FCN results

FCN-32s即為FCN-VGG16,其中32s代表其strides=32。CNN低維提取的信息包含更多局部信息如location,而高維信息則包含了全局的信息如該物體是什么。文章中添加了skips,將淺層的特征與最后結果相加,得到最終圖像。其結構如下:


Structure

舉例來說,對于FCN-16s,pool4得到的特征圖的尺寸為原圖像的1/2^4 (經歷了四次池化),而conv7得到的特征圖尺寸為原圖像的1/2^5 (經歷了五次池化),此時,將conv7通過一個2x的up-sampling層,得到1/2^4的特征圖,再與pool4特征圖相加,然后用一個16x的up-sampling,得到與原圖同樣大小的輸出,進行pixel級訓練。
有時間會講解FCN的tensorflow或者torch代碼。

系列文章包括:

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,622評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,716評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事?!?“怎么了?”我有些...
    開封第一講書人閱讀 178,746評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,991評論 1 318
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,706評論 6 413
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 56,036評論 1 329
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 44,029評論 3 450
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,203評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,725評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,451評論 3 361
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,677評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,161評論 5 365
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,857評論 3 351
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,266評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,606評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,407評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,643評論 2 380

推薦閱讀更多精彩內容