風(fēng)格遷移

A Neural Algorithm of Artistic Style:https://arxiv.org/pdf/1508.06576v2.pdf

一. 介紹

1. Content reconstructions:?

CNN被廣泛運(yùn)用于訓(xùn)練目標(biāo)識(shí)別,隨著訓(xùn)練的進(jìn)行,它們能夠有一種將圖片抽象的能力。最終,圖片被抽象為只含有實(shí)際內(nèi)容的信息,而丟掉許多像素細(xì)節(jié)。越多層的CNN越能捕捉主要的圖片內(nèi)容。所以我們將深層的CNN抽象出來(lái)的內(nèi)容稱(chēng)為content representation.

2. Style reconstructions:

為了獲得圖片的風(fēng)格特征,我們利用feature space去捕捉圖片的質(zhì)地特征。這些feature space建立于每層網(wǎng)絡(luò)的filter之上。它由特征圖(feature map)的空間范圍內(nèi)的不同濾波器響應(yīng)之間的相關(guān)性組成。

這篇論文的發(fā)現(xiàn)是style reconstructions和content reconstructions是可分的。那就是說(shuō),可以分別從不同的圖片得到style和不同的圖片得到content,然后將它們結(jié)合起來(lái),構(gòu)成新的圖片。

二. 方法

1. 結(jié)構(gòu)

(1) style reconstructions

We used the feature space provided by the 16 convolutional and 5 pooling layers of the 19 layer VGG-Network. We do not use any of the fully connected layers.

(2) image synthesis

we found that replacing the max-pooling operation by average pooling improves the gradient flow and one obtains slightly more appealing results, which is why the images shown were generated with average pooling.

2. 誤差函數(shù)

(1) content reconstructions loss function:

每層有N_l個(gè)不同的濾波器,有N_l個(gè)M_l大小的feature map, M_l指的是feature map的高度乘以寬度。 所以feature在l層的表示被存在一個(gè)F_L的矩陣?yán)铮現(xiàn)_l(i,j)指的是在l層,位置j的第i個(gè)filter的激活值。P_I(i,j)就是在上面位置的原圖的值。

(2) style reconstructions loss function:

(3) image synthesis loss function:

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

推薦閱讀更多精彩內(nèi)容

  • 其實(shí) 我們每一個(gè)人 都有自己的不容易 告訴您一個(gè)秘密 當(dāng)我經(jīng)受痛苦與失意時(shí) 我不找親人 也不找朋友 我總是在愛(ài)與...
    雪莉詩(shī)話(huà)閱讀 367評(píng)論 28 24
  • 我駐足在深秋里的高加索之殤無(wú)雪的深秋,遮不住那場(chǎng)戰(zhàn)役那片鮮血染過(guò)的白樺林我不喜歡深秋,因?yàn)樯臀以谔油鲲@得格外地...
    Amaorent阿毛的空瓶子閱讀 306評(píng)論 5 11
  • 不知從什么時(shí)候開(kāi)始,仿佛逛花市成了我在廣州這個(gè)名副其實(shí)的花城里過(guò)春節(jié)必不可前的環(huán)節(jié)。 如果說(shuō),初始的萌動(dòng)是爛漫滿(mǎn)屋...
    芳草幽蘭閱讀 213評(píng)論 0 0