【白話AI】機(jī)器是如何模仿大腦學(xué)習(xí)的?(二)
先回顧一下上一篇我們了解的人工神經(jīng)元——感知器(Perceptron)。
這個(gè)人工神經(jīng)元的設(shè)計(jì)特別像一個(gè)投票機(jī)制,每個(gè)輸入信號(hào)代表一個(gè)人,這個(gè)信號(hào)的權(quán)重就代表這個(gè)人有多大的發(fā)言權(quán)。然后把所有人的投票匯總,如果最終票數(shù)過半就激活下一個(gè)細(xì)胞。當(dāng)這種機(jī)制自己運(yùn)作的時(shí)候沒什么問題,畢竟連總統(tǒng)這么重要的事都是用類似的方法選出來的。
可是當(dāng)我們想用這種感知器去構(gòu)建一個(gè)更復(fù)雜的系統(tǒng)的時(shí)候,感知器的輸出就會(huì)缺失一些細(xì)節(jié)。我們的神經(jīng)元輸出的信號(hào)并不是一種簡(jiǎn)單的開關(guān)模式。例如當(dāng)我們看到一個(gè)模糊的照片的時(shí)候,我們感覺上面的人像是自己,但是又不是很確定。這時(shí)候神經(jīng)元就可以輸出一種不是100%確定的信號(hào),例如70%確定這個(gè)照片是自己這種信號(hào)。這樣后面連接的神經(jīng)元就可以根據(jù)其他的神經(jīng)元的信息進(jìn)一步判斷這個(gè)照片是不是自己。假設(shè)掌管記憶的神經(jīng)元想起來了確實(shí)有照過這張照片,那么綜合這兩個(gè)神經(jīng)元的輸出結(jié)果,最后的神經(jīng)元就可以輸出100%確定這個(gè)照片是自己的信號(hào)。
為了模擬這些不確定的灰色地帶,感知器的“開關(guān)”的輸出模式被改進(jìn)成了一個(gè)S型曲線,而不再是簡(jiǎn)單的1和0,這個(gè)S型曲線叫做邏輯曲線。用來產(chǎn)生這個(gè)邏輯曲線的數(shù)學(xué)公式叫做激活公式。
這里選用S型曲線而沒有選用直線的原因有兩個(gè)——(1)曲線能用來表達(dá)更復(fù)雜的數(shù)學(xué)公式;(2)這個(gè)曲線本身可以代表很多生活中的現(xiàn)象,例如產(chǎn)生水蒸氣的過程和冰融化的過程等等。另外從我們直覺的角度來看這個(gè)曲線也比直線更真實(shí),更符合我們?nèi)粘I畹膶?shí)際情況。我們可以看到這個(gè)曲線中間的部分幾乎是直的,只有開始和結(jié)束的地方是彎的,并且這個(gè)彎的部分是逐漸變化的,開始的地方是逐漸變陡峭,結(jié)束的地方是逐漸變緩慢。在現(xiàn)實(shí)生活中,大部分的事情也都是緩慢開始的,并緩慢結(jié)束的。沒有任何事情是突然出現(xiàn)的或者戛然而止的。即使像打雷這樣轉(zhuǎn)瞬即逝的一個(gè)現(xiàn)象,在毫秒層面來看也是逐步產(chǎn)生并且逐步結(jié)束的。
從某種層面上講,這個(gè)S型曲讓感知器可以輸出更多的信息。它不僅能輸出態(tài)度(1或者0)還能表達(dá)對(duì)于這個(gè)態(tài)度的確定程度。當(dāng)我們把這樣的感知器鏈接成一個(gè)網(wǎng)絡(luò)的時(shí)候也就能表達(dá)出更復(fù)雜且縝密的模型。這個(gè)改進(jìn)了的感知器就是現(xiàn)在非常火的深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的最基本組成部分。
通過不同方式疊加組合這些神經(jīng)元,我們?cè)O(shè)計(jì)出了很多種神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)解決不同類型的問題。最早最簡(jiǎn)單的網(wǎng)絡(luò)就是直白的疊加這些基本的人工神經(jīng)元,叫做前饋型神經(jīng)網(wǎng)絡(luò)。
這里的輸入層和輸出層負(fù)責(zé)輸入和輸出。如果任務(wù)是決定明天是否買入“萬達(dá)院線”,輸入層就是關(guān)于萬達(dá)院線股票的信息,輸出層就是買賣信號(hào)。這里我們把中間的兩層叫做隱藏層,因?yàn)槭褂眠@個(gè)神經(jīng)網(wǎng)絡(luò)的人只需要知道輸入輸出,并不需要知道這個(gè)網(wǎng)絡(luò)的內(nèi)部結(jié)構(gòu)。另外需要指出的是,雖然這個(gè)圖里面只畫了兩個(gè)隱藏層并且每層只有四個(gè)神經(jīng)元,但是實(shí)際中我們可以讓每一層有無限個(gè)神經(jīng)元,也可以有無限多個(gè)隱藏層。也就是說理論上我們可以構(gòu)建成任意寬和任意深的神經(jīng)網(wǎng)絡(luò)。(寬代表每層的神經(jīng)元數(shù)量,深代表隱藏層的層數(shù))
這個(gè)隱藏層就是奇跡產(chǎn)生的地方。通過這種可以無限擴(kuò)張的網(wǎng)狀結(jié)構(gòu),我們可以模擬任意復(fù)雜的數(shù)學(xué)公式,甚至達(dá)到人無法理解的程度。還是拿股票系統(tǒng)舉例,如果股票未來的價(jià)格確實(shí)是可以通過我們已經(jīng)知道的信息預(yù)測(cè)的話,不管這個(gè)預(yù)測(cè)系統(tǒng)有多么復(fù)雜,我們都應(yīng)該可以通過更寬更深的神經(jīng)網(wǎng)絡(luò)來模擬這個(gè)預(yù)測(cè)過程。也就是說我們可以通過這個(gè)神經(jīng)網(wǎng)絡(luò)解決或者學(xué)會(huì)任何復(fù)雜的問題!
不過別高興的太早,雖然說我們找到了一個(gè)理論上可以解決任何問題的模型,但是別忘了這個(gè)神經(jīng)網(wǎng)絡(luò)里面的每個(gè)神經(jīng)元上面的那些權(quán)重都還是未知的。同時(shí),更復(fù)雜的神經(jīng)網(wǎng)絡(luò)就有更多未知的權(quán)重。這里,如果我們能想出一個(gè)辦法自動(dòng)尋找這些權(quán)重,我們就還是有可能讓機(jī)器自己學(xué)會(huì)解決任意復(fù)雜的任務(wù)的。這個(gè)尋找神經(jīng)元權(quán)重的過程就是機(jī)器學(xué)習(xí)的過程。
那么這個(gè)學(xué)習(xí)到底是如何進(jìn)行的呢?且聽下回分解。
? 版權(quán)聲明:本文首發(fā)自本人微信公共帳號(hào):思故是(sikaoguwozai);無需授權(quán)即可轉(zhuǎn)載,但轉(zhuǎn)載時(shí)請(qǐng)務(wù)必注明作者 。