【寫在前面】
學(xué)習(xí)和運(yùn)用深度學(xué)習(xí)也有一年多的時(shí)間了。前階段一個(gè)小白對我說:“我看了一下deep learning,覺得好傻啊。”我一愣,突然覺得ta說得很有些道理,deep learning說穿了,就是用一種傻瓜的方法暴力解決問題。所以我想總結(jié)一下這一階段對這個(gè)領(lǐng)域的一點(diǎn)點(diǎn)看法,以后也許會有思想上的轉(zhuǎn)變。因?yàn)槭请S筆所以寫得會有些凌亂。本文僅供學(xué)習(xí)交流使用,侵權(quán)必刪,不用于商業(yè)目的,轉(zhuǎn)載須注明出處。
深度學(xué)習(xí)其實(shí)沒那么難,個(gè)人覺得還沒有傳統(tǒng)的machine learning + statistics難。
傳統(tǒng)方法會根據(jù)問題和數(shù)據(jù)的特質(zhì),選擇合適的模型,有時(shí)候是Bayesian,有時(shí)候是time series,有時(shí)候是survival analysis。甚至僅僅是statistical inference,也考驗(yàn)從業(yè)者的功底,見微知著。雖然不是什么高精尖的科技,但是人和人之間的水平差異是和ta的經(jīng)驗(yàn)以及思考問題的廣度和深度相關(guān)的。很多問題仔細(xì)琢磨,或者換個(gè)角度,就有橫看成嶺側(cè)成峰的細(xì)微之處的樂趣。
而在深度學(xué)習(xí)的世界,模型的種類很少且都有固定對應(yīng)的數(shù)據(jù)類別,各種調(diào)參數(shù)加layer,整個(gè)建模過程變得更加簡單粗暴了。海量的數(shù)據(jù)和計(jì)算力,才是制勝法寶。當(dāng)然這話也難免偏頗,畢竟高手建出來的模型還是更優(yōu)秀一些。我說的“簡單粗暴”,是指deep learning失去了原有的statistics和傳統(tǒng)machine learning中一些抽象又優(yōu)雅的東西,而是以“大力出奇跡”取而代之。所以現(xiàn)在deep learning玩得轉(zhuǎn)的,都是有海量數(shù)據(jù)的那些巨頭。
這個(gè)行業(yè)也有點(diǎn)亂象叢生,希望大家學(xué)習(xí)的時(shí)候都能不忘初心,不急功近利。
總結(jié)起來,一言以蔽之,真真是應(yīng)了這幅圖: