理解這25個概念,你的人工智能,深度學習,機器學習才算入門(摘自微信公眾號)

人工智能,深度學習,機器學習—無論你在做什么,如果你對它不是很了解的話—去學習它。否則的話不用三年你就跟不上時代的潮流了。
——馬克.庫班

機器人圈(jiqirenchanye)
馬克.庫班的這個觀點可能聽起來很極端——但是它所傳達的信息是完全正確的! 我們正處于一場革命的旋渦之中——一場由大數據和計算能力引起的革命。

只需要一分鐘,我們來想象一下,在20世紀初,如果一個人不了解電力,他/她會覺得如何?你會習慣于以某種特定的方式來做事情,日復一日,年復一年,而你周圍的一切事情都在發生變化,一件需要很多人才能完成的事情僅依靠一個人和電力就可以輕松搞定,而我們今天正以機器學習和深度學習的方式在經歷一場相似的旅程。

所以,如果你還沒有探索或理解深度學習的神奇力量——那你應該從今天就開始進入這一領域。

誰應該讀這篇文章?

如果你是一個想學習或理解深度學習的人,這篇文章是為你量身定做的。在本文中,我將介紹深度學習中常用的各種術語。

如果你想知道我為什么要寫這篇文章——我之所以在寫,是因為我希望你開始你的深度學習之旅,而不會遇到麻煩或是被嚇倒。當我第一次開始閱讀關于深度學習資料的時候,有幾個我聽說過的術語,但是當我試圖理解它的時候,它卻是令人感到很迷惑的。而當我們開始閱讀任何有關深度學習的應用程序時,總會有很多個單詞重復出現。

在本文中,我為你創建了一個類似于深度學習的字典,你可以在需要使用最常用術語的基本定義時進行參考。我希望在你閱讀這篇文章之后,你就不會再受到這些術語的困擾了。

與主題相關的術語

為了幫助你了解各種術語,我已經將它們分成3組。如果你正在尋找特定術語,你可以跳到該部分。如果你是這個領域的新手,那我建議你按照我寫的順序來通讀它們。

1.神經網絡基礎(Basics of Neural Networks)

                             ——常用激活函數(Common Activation Functions)

2.卷積神經網絡(Convolutional Neural Networks)

3.循環神經網絡(Recurrent Neural Networks)

神經網絡基礎

1)****神經元(Neuron)****——就像形成我們大腦基本元素的神經元一樣,神經元形成神經網絡的基本結構。想象一下,當我們得到新信息時我們該怎么做。當我們獲取信息時,我們一般會處理它,然后生成一個輸出。類似地,在神經網絡的情況下,神經元接收輸入,處理它并產生輸出,而這個輸出被發送到其他神經元用于進一步處理,或者作為最終輸出進行輸出。

2)****權重(Weights)****——當輸入進入神經元時,它會乘以一個權重。例如,如果一個神經元有兩個輸入,則每個輸入將具有分配給它的一個關聯權重。我們隨機初始化權重,并在模型訓練過程中更新這些權重。訓練后的神經網絡對其輸入賦予較高的權重,這是它認為與不那么重要的輸入相比更為重要的輸入。為零的權重則表示特定的特征是微不足道的。

讓我們假設輸入為a,并且與其相關聯的權重為W1,那么在通過節點之后,輸入變為a * W1

3)****偏差(Bias)****——除了權重之外,另一個被應用于輸入的線性分量被稱為偏差。它被加到權重與輸入相乘的結果中。基本上添加偏差的目的是來改變權重與輸入相乘所得結果的范圍的。添加偏差后,結果將看起來像a* W1 +偏差。這是輸入變換的最終線性分量。

4)****激活函數(Activation Function)——一旦將線性分量應用于輸入,將會需要應用一個非線性函數。這通過將激活函數應用于線性組合來完成。激活函數將輸入信號轉換為輸出信號。應用激活函數后的輸出看起來像f(a * W1 + b),其中f()就是激活函數。

在下圖中,我們將“n”個輸入給定為X1到Xn而與其相應的權重為Wk1到Wkn。我們有一個給定值為bk的偏差。權重首先乘以與其對應的輸入,然后與偏差加在一起。而這個值叫做u。

U =ΣW* X+ b

激活函數被應用于u,即 f(u),并且我們會從神經元接收最終輸出,如yk = f(u)。

常用的激活函數

最常用的激活函數就是Sigmoid,ReLU和softmax

a)****Sigmoid——最常用的激活函數之一是Sigmoid,它被定義為:

Sigmoid變換產生一個值為0到1之間更平滑的范圍。我們可能需要觀察在輸入值略有變化時輸出值中發生的變化。光滑的曲線使我們能夠做到這一點,因此優于階躍函數。

b)****ReLU(整流線性單位)——與Sigmoid函數不同的是,最近的網絡更喜歡使用ReLu激活函數來處理隱藏層。該函數定義為:

當X>0時,函數的輸出值為X;當X<=0時,輸出值為0。函數圖如下圖所示:

使用ReLU函數的最主要的好處是對于大于0的所有輸入來說,它都有一個不變的導數值。常數導數值有助于網絡訓練進行得更快。

c)Softmax——Softmax激活函數通常用于輸出層,用于分類問題。它與sigmoid函數是很類似的,唯一的區別就是輸出被歸一化為總和為1。Sigmoid函數將發揮作用以防我們有一個二進制輸出,但是如果我們有一個多類分類問題,softmax函數使為每個類分配值這種操作變得相當簡單,而這可以將其解釋為概率。

以這種方式來操作的話,我們很容易看到——假設你正在嘗試識別一個可能看起來像8的6。該函數將為每個數字分配值如下。我們可以很容易地看出,最高概率被分配給6,而下一個最高概率分配給8,依此類推……

5)神經網絡(Neural Network)——神經網絡構成了深度學習的支柱。神經網絡的目標是找到一個未知函數的近似值。它由相互聯系的神經元形成。這些神經元具有權重和在網絡訓練期間根據錯誤來進行更新的偏差。激活函數將非線性變換置于線性組合,而這個線性組合稍后會生成輸出。激活的神經元的組合會給出輸出值。

一個很好的神經網絡定義——

“神經網絡由許多相互關聯的概念化的人造神經元組成,它們之間傳遞相互數據,并且具有根據網絡”經驗“調整的相關權重。神經元具有激活閾值,如果通過其相關權重的組合和傳遞給他們的數據滿足這個閾值的話,其將被解雇;發射神經元的組合導致“學習”。

6)輸入/輸出/隱藏層(Input / Output / Hidden Layer)——正如它們名字所代表的那樣,輸入層是接收輸入那一層,本質上是網絡的第一層。而輸出層是生成輸出的那一層,也可以說是網絡的最終層。處理層是網絡中的隱藏層。這些隱藏層是對傳入數據執行特定任務并將其生成的輸出傳遞到下一層的那些層。輸入和輸出層是我們可見的,而中間層則是隱藏的。

來源:cs231n

7)MLP(多層感知器)——單個神經元將無法執行高度復雜的任務。因此,我們使用堆棧的神經元來生成我們所需要的輸出。在最簡單的網絡中,我們將有一個輸入層、一個隱藏層和一個輸出層。每個層都有多個神經元,并且每個層中的所有神經元都連接到下一層的所有神經元。這些網絡也可以被稱為完全連接的網絡。

8)正向傳播(Forward Propagation)——正向傳播是指輸入通過隱藏層到輸出層的運動。在正向傳播中,信息沿著一個單一方向前進。輸入層將輸入提供給隱藏層,然后生成輸出。這過程中是沒有反向運動的。

9)成本函數(Cost Function)——當我們建立一個網絡時,網絡試圖將輸出預測得盡可能靠近實際值。我們使用成本/損失函數來衡量網絡的準確性。而成本或損失函數會在發生錯誤時嘗試懲罰網絡。

我們在運行網絡時的目標是提高我們的預測精度并減少誤差,從而最大限度地降低成本。最優化的輸出是那些成本或損失函數值最小的輸出。

如果我將成本函數定義為均方誤差,則可以寫為:

C= 1/m ∑(y–a)^2,

其中m是訓練輸入的數量,a是預測值,y是該特定示例的實際值。

學習過程圍繞最小化成本來進行。

10)梯度下降(Gradient Descent)——梯度下降是一種最小化成本的優化算法。要直觀地想一想,在爬山的時候,你應該會采取小步驟,一步一步走下來,而不是一下子跳下來。因此,我們所做的就是,如果我們從一個點x開始,我們向下移動一點,即Δh,并將我們的位置更新為x-Δh,并且我們繼續保持一致,直到達到底部。考慮最低成本點。

圖:https://www.youtube.com/watch?v=5u4G23_OohI

在數學上,為了找到函數的局部最小值,我們通常采取與函數梯度的負數成比例的步長。

你可以通過這篇文章來詳細了解梯度下降。

11)學習率(Learning Rate)——學習率被定義為每次迭代中成本函數中最小化的量。簡單來說,我們下降到成本函數的最小值的速率是學習率。我們應該非常仔細地選擇學習率,因為它不應該是非常大的,以至于最佳解決方案被錯過,也不應該非常低,以至于網絡需要融合。

http://cs231n.github.io/neural-networks-3/

12)反向傳播(Backpropagation)——當我們定義神經網絡時,我們為我們的節點分配隨機權重和偏差值。一旦我們收到單次迭代的輸出,我們就可以計算出網絡的錯誤。然后將該錯誤與成本函數的梯度一起反饋給網絡以更新網絡的權重。 最后更新這些權重,以便減少后續迭代中的錯誤。使用成本函數的梯度的權重的更新被稱為反向傳播。

在反向傳播中,網絡的運動是向后的,錯誤隨著梯度從外層通過隱藏層流回,權重被更新。

13)批次(Batches)——在訓練神經網絡的同時,不用一次發送整個輸入,我們將輸入分成幾個隨機大小相等的塊。與整個數據集一次性饋送到網絡時建立的模型相比,批量訓練數據使得模型更加廣義化。

14)周期(Epochs)——周期被定義為向前和向后傳播中所有批次的單次訓練迭代。這意味著1個周期是整個輸入數據的單次向前和向后傳遞。

你可以選擇你用來訓練網絡的周期數量,更多的周期將顯示出更高的網絡準確性,然而,網絡融合也需要更長的時間。另外,你必須注意,如果周期數太高,網絡可能會過度擬合。

15)丟棄(Dropout)——Dropout是一種正則化技術,可防止網絡過度擬合套。顧名思義,在訓練期間,隱藏層中的一定數量的神經元被隨機地丟棄。這意味著訓練發生在神經網絡的不同組合的神經網絡的幾個架構上。你可以將Dropout視為一種綜合技術,然后將多個網絡的輸出用于產生最終輸出。

來源:Original paper

16)批量歸一化(Batch Normalization)——作為一個概念,批量歸一化可以被認為是我們在河流中設定為特定檢查點的水壩。這樣做是為了確保數據的分發與希望獲得的下一層相同。當我們訓練神經網絡時,權重在梯度下降的每個步驟之后都會改變,這會改變數據的形狀如何發送到下一層。

但是下一層預期分布類似于之前所看到的分布。 所以我們在將數據發送到下一層之前明確規范化數據。

卷積神經網絡

17)濾波器(Filters)——CNN中的濾波器與加權矩陣一樣,它與輸入圖像的一部分相乘以產生一個回旋輸出。我們假設有一個大小為28 * 28的圖像,我們隨機分配一個大小為3 * 3的濾波器,然后與圖像不同的3 * 3部分相乘,形成所謂的卷積輸出。濾波器尺寸通常小于原始圖像尺寸。在成本最小化的反向傳播期間,濾波器值被更新為重量值。

參考一下下圖,這里filter是一個3 * 3矩陣:

與圖像的每個3 * 3部分相乘以形成卷積特征。

18)卷積神經網絡(CNN)——卷積神經網絡基本上應用于圖像數據。假設我們有一個輸入的大小(28 * 28 * 3),如果我們使用正常的神經網絡,將有2352(28 * 28 * 3)參數。并且隨著圖像的大小增加參數的數量變得非常大。我們“卷積”圖像以減少參數數量(如上面濾波器定義所示)。當我們將濾波器滑動到輸入體積的寬度和高度時,將產生一個二維激活圖,給出該濾波器在每個位置的輸出。我們將沿深度尺寸堆疊這些激活圖,并產生輸出量。

你可以看到下面的圖,以獲得更清晰的印象。

19)池化(Pooling)——通常在卷積層之間定期引入池層。這基本上是為了減少一些參數,并防止過度擬合。最常見的池化類型是使用MAX操作的濾波器尺寸(2,2)的池層。它會做的是,它將占用原始圖像的每個4 * 4矩陣的最大值。

來源:cs231n

你還可以使用其他操作(如平均池)進行池化,但是最大池數量在實踐中表現更好。

20)填充(Padding)——填充是指在圖像之間添加額外的零層,以使輸出圖像的大小與輸入相同。這被稱為相同的填充。

在應用濾波器之后,在相同填充的情況下,卷積層具有等于實際圖像的大小。

有效填充是指將圖像保持為具有實際或“有效”的圖像的所有像素。在這種情況下,在應用濾波器之后,輸出的長度和寬度的大小在每個卷積層處不斷減小。

21)數據增強(Data Augmentation)——數據增強是指從給定數據導出的新數據的添加,這可能被證明對預測有益。例如,如果你使光線變亮,可能更容易在較暗的圖像中看到貓,或者例如,數字識別中的9可能會稍微傾斜或旋轉。在這種情況下,旋轉將解決問題并提高我們的模型的準確性。通過旋轉或增亮,我們正在提高數據的質量。這被稱為數據增強。

循環神經網絡

22)循環神經元(Recurrent Neuron)——循環神經元是在T時間內將神經元的輸出發送回給它。如果你看圖,輸出將返回輸入t次。展開的神經元看起來像連接在一起的t個不同的神經元。這個神經元的基本優點是它給出了更廣義的輸出。

23)循環神經網絡(RNN)——循環神經網絡特別用于順序數據,其中先前的輸出用于預測下一個輸出。在這種情況下,網絡中有循環。隱藏神經元內的循環使他們能夠存儲有關前一個單詞的信息一段時間,以便能夠預測輸出。隱藏層的輸出在t時間戳內再次發送到隱藏層。展開的神經元看起來像上圖。只有在完成所有的時間戳后,循環神經元的輸出才能進入下一層。發送的輸出更廣泛,以前的信息保留的時間也較長。

然后根據展開的網絡將錯誤反向傳播以更新權重。這被稱為通過時間的反向傳播(BPTT)。

24)消失梯度問題(Vanishing Gradient Problem)——激活函數的梯度非常小的情況下會出現消失梯度問題。在權重乘以這些低梯度時的反向傳播過程中,它們往往變得非常小,并且隨著網絡進一步深入而“消失”。這使得神經網絡忘記了長距離依賴。這對循環神經網絡來說是一個問題,長期依賴對于網絡來說是非常重要的。

這可以通過使用不具有小梯度的激活函數ReLu來解決。

25)激增梯度問題(Exploding Gradient Problem)——這與消失的梯度問題完全相反,激活函數的梯度過大。在反向傳播期間,它使特定節點的權重相對于其他節點的權重非常高,這使得它們不重要。這可以通過剪切梯度來輕松解決,使其不超過一定值。

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,578評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,701評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,691評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,974評論 1 318
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,694評論 6 413
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 56,026評論 1 329
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 44,015評論 3 450
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,193評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,719評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,442評論 3 360
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,668評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,151評論 5 365
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,846評論 3 351
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,255評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,592評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,394評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,635評論 2 380

推薦閱讀更多精彩內容