生成式對抗網(wǎng)絡(luò)GANs簡介

學(xué)號:16020120050

姓名:吳言凡

轉(zhuǎn)自:http://36kr.com/p/5086889.html

【嵌牛導(dǎo)讀】:介紹GAN的概念,并解釋其工作原理和面臨的挑戰(zhàn)

【嵌牛鼻子】:生成式對抗網(wǎng)絡(luò)GANs

【嵌牛提問】:什么是GANs?GANs如何工作?

【嵌牛正文】:

神經(jīng)網(wǎng)絡(luò)取得了長足的進步,目前識別圖像和聲音的水平已經(jīng)和人類相當(dāng),在自然語言理解方面也達到了很好的效果。但即使如此,討論用機器來自動化人類任務(wù)看起來還是有些勉強。畢竟,我們做的不僅僅是識別圖像和聲音、或者了解我們周圍的人在說什么,不是嗎?

讓我們看一些需要人類創(chuàng)造力的例子:

通過學(xué)習(xí)大數(shù)據(jù)文摘過去的文章,訓(xùn)練一個可以撰寫文章并將數(shù)據(jù)科學(xué)概念以非常簡單的方式向社區(qū)解釋的人工智能作者

你不能從著名畫家那里買到一幅名畫。但你可不可以創(chuàng)造一個人工智能畫家,通過從畫家過去的作品中學(xué)習(xí),然后像任何藝術(shù)家一樣畫畫?

這些任務(wù)確實難以自動化,但是生成式對抗網(wǎng)絡(luò)(GAN)已經(jīng)開始使其中的某些任務(wù)成為可能。

如果你感到被GAN的名字所嚇倒,別擔(dān)心,看完這篇科普文章你就會發(fā)現(xiàn)這不是一個高深莫測的東西。

在本文中,我將向您介紹GAN的概念,并解釋其工作原理和面臨的挑戰(zhàn)。我還將讓你了解人們使用GAN所做的一些很酷的事情,并提供一些重要資源的鏈接,以深入了解這些技術(shù)。

不好意思,但是什么是GAN?

深度學(xué)習(xí)領(lǐng)域的杰出代表Yann LeCun在Quora上寫道:

“生成式對抗網(wǎng)絡(luò)(GAN)及其相關(guān)的變化,是我認為的機器學(xué)習(xí)領(lǐng)域近十年最有趣的想法。”

當(dāng)然他會有這樣的觀點。當(dāng)我看到生成式對抗網(wǎng)絡(luò)被最大程度執(zhí)行時的驚人表現(xiàn),我也同樣印象深刻。

但是什么是GAN呢?

讓我用個類比來解釋這個概念:

如果你想更加擅長某種東西,比如下棋,你會怎么做?你可能會和比你更強的對手對弈。你會分析你做錯了什么、對方做對了什么,并思考下一場比賽如何才能擊敗他(她)。

你會重復(fù)這一步驟,直到你擊敗對手。這個概念可以被納入到構(gòu)建更好的模型中。所以簡單來說,要獲得一個強大的英雄(即生成器generator),我們需要一個更強大的對手(即鑒別器discriminator)。

真實生活的另一個類比:

一個更真實的類比是偽造者和調(diào)查員之間的關(guān)系。

偽造者的任務(wù)是模仿著名藝術(shù)家的畫作。如果這個偽造的作品能夠超越原始的作品,那么這個偽造者就可以賣出這張作品換很多錢。

另一方面,藝術(shù)品調(diào)查員的任務(wù)是抓住這些造假的偽造者。怎么做呢,他知道什么屬性能把原作和贗品區(qū)分開來。通過檢驗手中的作品是否是真的,他可以評估自己的知識。

偽造者與調(diào)查員的競賽繼續(xù)進行,最終催生了世界級的調(diào)查員(很不幸以及世界級的偽造者)。 這是一場善與惡之間的斗爭。

GANs如何工作

我們已經(jīng)知道了GAN的概要,現(xiàn)在繼續(xù)去了解細節(jié)部分。

正如我們看到的,GAN有兩個主要組成部分,生成器神經(jīng)網(wǎng)絡(luò)(Generator Neural Network)和鑒別器神經(jīng)網(wǎng)絡(luò)(Discriminator Neural Network)。

生成網(wǎng)絡(luò)采用隨機輸入,嘗試輸出數(shù)據(jù)樣本。在上述圖像中,我們可以看到生成器G(z)從p(z)獲取了輸入z,其中z是來自概率分布p(z)的樣本。生成器產(chǎn)生一個數(shù)據(jù),將其送入鑒別器網(wǎng)絡(luò)D(x)。鑒別網(wǎng)絡(luò)的任務(wù)是接收真實數(shù)據(jù)或者生成數(shù)據(jù),并嘗試預(yù)測輸入是真實還是生成的。它需要一個來自pdata(x)的輸入x,其中pdata(x)是我們的真實數(shù)據(jù)分布。 D(x)然后使用Sigmoid函數(shù)解決二元分類問題,并輸出0到1的值。

我們先定義GAN的標(biāo)記符號:

Pdata(x) -> 真實數(shù)據(jù)的分布

X -> pdata(x)的樣本

P(z) -> 生成器的分布

Z -> p(z)的樣本

G(z) -> 生成網(wǎng)絡(luò)

D(x) -> 鑒別網(wǎng)絡(luò)

現(xiàn)在作為生成器和鑒別器之間的斗爭,GAN的訓(xùn)練已經(jīng)完成。可以用數(shù)學(xué)表示為:

在我們的函數(shù)V(D,G)中,第一項是來自實際分布(pdata(x))的數(shù)據(jù)通過鑒別器(也稱為最佳情況)的熵(Entropy)。鑒別器試圖將其最大化為1。第二項是來自隨機輸入(p(z))的數(shù)據(jù)通過發(fā)生器的熵。生成器產(chǎn)生一個假樣本, 通過鑒別器識別虛假(也稱為最壞的情況)。在這一項中,鑒別器嘗試將其最大化為0(即生成的數(shù)據(jù)是偽造的的概率的對數(shù)是0)。所以總體而言,鑒別器正在嘗試最大化函數(shù)V(D,G)。

另一方面,生成器的任務(wù)完全相反,它試圖最小化函數(shù)V(D,G),使真實數(shù)據(jù)和假數(shù)據(jù)之間的區(qū)別最小化。這就是說,生成器和鑒別器像在玩貓和老鼠的游戲。

注意:這種訓(xùn)練GAN的方法源自于博弈論中的Minimax Game。

如何訓(xùn)練GAN

概括來講訓(xùn)練階段包括順序完成的兩個階段——

第一階段:訓(xùn)練鑒別器,凍結(jié)生成器(凍結(jié)意思是不訓(xùn)練,神經(jīng)網(wǎng)絡(luò)只向前傳播,不進行Backpropagation反向傳播)

第二階段:訓(xùn)練生成器,凍結(jié)鑒別器。

訓(xùn)練GAN的步驟

第1步:定義問題。你想生成假的圖像還是文字?你需要完全定義問題并收集數(shù)據(jù)。

第2步:定義GAN的架構(gòu)。GAN看起來是怎么樣的,生成器和鑒別器應(yīng)該是多層感知器還是卷積神經(jīng)網(wǎng)絡(luò)?這一步取決于你要解決的問題。

第3步:用真實數(shù)據(jù)訓(xùn)練鑒別器N個epoch。訓(xùn)練鑒別器正確預(yù)測真實數(shù)據(jù)為真。這里N可以設(shè)置為1到無窮大之間的任意自然數(shù)。

第4步:用生成器產(chǎn)生假的輸入數(shù)據(jù),用來訓(xùn)練鑒別器。訓(xùn)練鑒別器正確預(yù)測假的數(shù)據(jù)為假。

第5步:用鑒別器的出入訓(xùn)練生成器。當(dāng)鑒別器被訓(xùn)練后,將其預(yù)測值作為標(biāo)記來訓(xùn)練生成器。訓(xùn)練生成器來迷惑鑒別器。

第6步:重復(fù)第3到第5步多個epoch

第7步:手動檢查假數(shù)據(jù)是否合理。如果看起來合適就停止訓(xùn)練,否則回到第3步。這是一個手動任務(wù),手動評估數(shù)據(jù)是檢查其假冒程度的最佳方式。當(dāng)這個步驟結(jié)束時,就可以評估GAN是否表現(xiàn)良好。

喘口氣,看一下這項技術(shù)有什么樣的含義。假設(shè)你有一個功能完整的生成器,可以復(fù)制幾乎任何東西。給你一些例子,你可以生成假新聞、不可思議的書籍和小說、自動應(yīng)答服務(wù)等等。你可以擁有一個近乎現(xiàn)實的人工智能,一個真正的人工智能!這就是夢想。

伴隨GAN而來的挑戰(zhàn)

你可能會問,如果我們知道這些美麗的生物(怪物)能做什么,為什么現(xiàn)在什么也沒發(fā)生?這是因為我們還僅僅只接觸到它的表面。在創(chuàng)造一個足夠好的GAN的過程中有太多的障礙還沒有清除。有一整個學(xué)術(shù)領(lǐng)域就是為了找出如何訓(xùn)練GAN。

訓(xùn)練GAN時最重要的障礙是穩(wěn)定。你開始訓(xùn)練GAN,如果鑒別器比與其對應(yīng)的發(fā)生器更強大,則發(fā)生器將無法有效訓(xùn)練。這反過來又會影響你的GAN的訓(xùn)練。另一方面,如果鑒別器過于寬松,理論上它可以允許生成器產(chǎn)生任何圖像。這意味著你的GAN是無用的。

瀏覽GAN的穩(wěn)定性的另一種方法是將其看做一個整體收斂的問題。生成器和鑒別器都是相互競爭的,力求領(lǐng)先對方一步。此外,他們依賴彼此進行有效的培訓(xùn)。如果其中一個失敗,整個系統(tǒng)就會失敗。所以你必須確保它們不會崩掉。

這就像波斯王子游戲中的影子一樣。你必須保衛(wèi)自己免受影子的襲擊,它試圖殺死你。如果你殺死你的影子,你會死;但如果你不做任何事情,你也一定會死!

關(guān)于其他的問題,請參考http://www.iangoodfellow.com/slides/2016-12-04-NIPS.pdf

注意:下面提到的圖像是由ImageNet數(shù)據(jù)集訓(xùn)練的GAN生成的。

計數(shù)問題:GAN無法區(qū)分特定對象在某個位置應(yīng)發(fā)生的數(shù)量。正如我們在下面看到的,它在頭上生成的眼睛個數(shù)比自然狀態(tài)更多。

need-to-insert-img

透視問題:GAN無法適應(yīng)3D對象。它不理解視角,即前視圖和后視圖之間的差異。如下所示,它給出3D對象的平面(2D)展開。

全局結(jié)構(gòu)問題:與透視問題相同,GAN不了解整體結(jié)構(gòu)。例如,在左下角的圖像中,它給出了一只四足牛的生成圖像,即母牛站立在其后腿上,同時又站立在所有四條腿上。這在現(xiàn)實中絕對不可能!

大量的研究正被用來處理這些問題。很多比過去擁有更好結(jié)果的新模型被提出,比如DCGAN, WassersteinGan。

實現(xiàn)一個簡單的GAN

讓我們實現(xiàn)一個簡化的GAN來加強理論。我們將嘗試通過在Identify the Digits數(shù)據(jù)集上訓(xùn)練GAN來生成數(shù)字。數(shù)據(jù)集包含了28x28的黑白圖像,所有圖像都是“.png”格式。我們的任務(wù)中只需要訓(xùn)練集。你可以在這里下載到數(shù)據(jù):https://datahack.analyticsvidhya.com/contest/practice-problem-identify-the-digits/。

你需要安裝一些Python的包:

numpy

pandas

tensorflow

keras

keras_adversarial

在開始編寫代碼之前,讓我們先了解內(nèi)部工作的原理,訓(xùn)練GAN的偽代碼如下:

來源鏈接

注意:這是在論文中發(fā)表的GAN的第一個實現(xiàn)。在最近論文的偽碼中可以看到許多改進和更新,例如在生成和鑒別網(wǎng)絡(luò)中添加批量歸一化(Batch Normalization),訓(xùn)練生成器k等。

現(xiàn)在開始寫代碼!

首先導(dǎo)入所有模塊。

為了讓確定性的隨機可復(fù)現(xiàn),設(shè)置一個Seed值。

設(shè)置數(shù)據(jù)和工作目錄的路徑。

need-to-insert-img

加載數(shù)據(jù)。

我們繪制一個圖形看看數(shù)據(jù)是什么樣的。

定義稍后將要使用的變量。

# define variables

# define vars g_input_shape = 100 d_input_shape = (28, 28) hidden_1_num_units = 500 hidden_2_num_units = 500 g_output_num_units = 784 d_output_num_units = 1 epochs = 25 batch_size = 128

現(xiàn)在定義生成網(wǎng)絡(luò)和鑒別網(wǎng)絡(luò)。

need-to-insert-img

這里是我們神經(jīng)網(wǎng)絡(luò)的架構(gòu)。

need-to-insert-img

我們現(xiàn)在定義GAN。首先導(dǎo)入一些重要模塊。

編譯GAN并開始訓(xùn)練。

這是我們的GAN的樣子。

need-to-insert-img

我們訓(xùn)練10個Epoch后得到的圖表。

need-to-insert-img

訓(xùn)練100個Epoch后,生成的圖像如下。

need-to-insert-img

瞧!你已經(jīng)建立了你的第一個生成模型!

GAN的應(yīng)用

我們了解了這些事情的工作原理,以及訓(xùn)練過程中的挑戰(zhàn)。我們現(xiàn)在將要看到使用GAN完成的前沿研究。

預(yù)測視頻中的下一幀:在視頻序列上訓(xùn)練GAN,并預(yù)測下一步會發(fā)生什么

論文

增加圖像分辨率:從較低分辨率照片生成高分辨率照片

論文

need-to-insert-img

交互式圖像生成:繪制簡單的筆畫,讓GAN為你畫出令人印象深刻的圖畫

鏈接

need-to-insert-img

圖像翻譯:從一個圖像生成另一個圖像。例如,左邊給出了帶標(biāo)簽的街景,你可以用GAN生成真實的照片。在右邊,給出簡單的手提包繪畫草稿,你會得到真正的手提包。

論文

need-to-insert-img

文本到圖像生成:只需向GAN說你想看到什么,就可以獲得一個所描述物體的真實照片。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,321評論 6 543
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 99,559評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,442評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經(jīng)常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,835評論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 72,581評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 55,922評論 1 328
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,931評論 3 447
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 43,096評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 49,639評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 41,374評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,591評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,104評論 5 364
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 44,789評論 3 349
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,196評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,524評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,322評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 48,554評論 2 379

推薦閱讀更多精彩內(nèi)容