一、相關(guān)概念的簡(jiǎn)介
在了解深度學(xué)習(xí)前應(yīng)該還有兩個(gè)專業(yè)名詞大家也想必是耳熟能詳,那么就是人工智能、機(jī)器學(xué)習(xí)。
人工智能(Artificial Intelligence)
:也就是我們經(jīng)常聽到的AI。它是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。但是在早期的時(shí)候,人工智能充滿了局限性,只是在特定的環(huán)境范圍下。機(jī)器學(xué)習(xí)(Machine Learning)
:簡(jiǎn)稱ML。機(jī)器學(xué)習(xí)其實(shí)是人工智能的一個(gè)分支。如果一個(gè)程序可以在任務(wù)(T)
上,隨著經(jīng)驗(yàn)(E)
的增加,效果(P)
也可以隨之增加,則就可以說這個(gè)程序可以從經(jīng)驗(yàn)中得到學(xué)習(xí)。深度學(xué)習(xí)(Deep Learning)
:簡(jiǎn)稱DL。深度學(xué)習(xí)也是機(jī)器學(xué)習(xí)的一個(gè)分支。主要是在機(jī)器學(xué)習(xí)的基礎(chǔ)之上有所改進(jìn):它除了可以學(xué)習(xí)特征和任務(wù)之間的關(guān)聯(lián),還可以自動(dòng)的將簡(jiǎn)單的特征組合成更加復(fù)雜的特征,并使用這些組合特征解決問題。
二、了解機(jī)器學(xué)習(xí)(ML)
1. 用例子認(rèn)識(shí)機(jī)器學(xué)習(xí)的概念
其實(shí),郵件系統(tǒng)中判斷收到的郵件是否為垃圾郵件就可以看做是一個(gè)機(jī)器學(xué)習(xí)的過程。首先對(duì)垃圾郵件分類概念進(jìn)行一個(gè)拆分、類比:
一個(gè)程序
<======> 需要用到的機(jī)器學(xué)習(xí)算法,比如邏輯回歸算法任務(wù)
(T)
<======> 區(qū)分此郵件是否是垃圾郵件這個(gè)任務(wù)經(jīng)驗(yàn)
(E)
<======> 已經(jīng)區(qū)分過是否為垃圾郵件的歷史事件效果
(P)
<======> 機(jī)器學(xué)習(xí)算法在區(qū)分此郵件是否是垃圾郵件這個(gè)任務(wù)的精確率
在整個(gè)過程中,首先會(huì)從每一封郵件中抽取出對(duì)分類結(jié)果可能有影響的因素(比如:發(fā)件人的地址、郵件的標(biāo)題、收件人的數(shù)量、郵件正題內(nèi)容,so on)。這樣的每一個(gè)因素
其實(shí)可以成為是一個(gè)特征
(feature)
。然而機(jī)器學(xué)習(xí)算法中的邏輯回歸算法可以從訓(xùn)練數(shù)據(jù)中計(jì)算出每個(gè)特征和預(yù)測(cè)結(jié)果的相關(guān)度。例如,在垃圾郵件分類過程中,可能會(huì)發(fā)現(xiàn)如果一個(gè)郵件的收件人越多,那么這封郵件是垃圾郵件的可能性越大。
在對(duì)一封完全未知的郵件進(jìn)行區(qū)分時(shí),邏輯回歸算法會(huì)根據(jù)這封郵件中抽取到的每一個(gè)特征以及這些特征和垃圾郵件的相關(guān)度進(jìn)行判斷是否為垃圾郵件。
所以,從例子中不難看出:一般情況下,在訓(xùn)練數(shù)據(jù)
達(dá)到一定數(shù)量之前,越多的訓(xùn)練數(shù)據(jù)可以使得邏輯回歸算法
對(duì)未知郵件做出的判斷越精確
。
也就是說
邏輯回歸算法
可以根據(jù)訓(xùn)練數(shù)據(jù)【經(jīng)驗(yàn)(E)】
提高垃圾郵件分類問題【任務(wù)(T)】
上的準(zhǔn)確率【效果(P)】
2.機(jī)器學(xué)習(xí)的分類
- 有監(jiān)督學(xué)習(xí)(Supervised Learning)
有監(jiān)督學(xué)習(xí)可分為
回歸
和分類
問題。例如上述示例垃圾郵件分類就屬于有監(jiān)督學(xué)習(xí)。
1.在回歸問題中,我們會(huì)預(yù)測(cè)一個(gè)連續(xù)值;也就是我們?cè)噲D將輸入變量和輸出用一個(gè)連續(xù)函數(shù)對(duì)應(yīng)起來。
2.在分類問題中,我們會(huì)預(yù)測(cè)一個(gè)離散值,我們?cè)噲D將輸入變量與離散的類別對(duì)應(yīng)起來。
- 無監(jiān)督學(xué)習(xí)(Unsupervised Leanring)
這種學(xué)習(xí)方式,數(shù)據(jù)并不被特別標(biāo)識(shí),學(xué)習(xí)模型是為了推斷出數(shù)據(jù)的一些內(nèi)在結(jié)構(gòu)。
- 增強(qiáng)式學(xué)習(xí)(Reinforcement Learning)
輸入數(shù)據(jù)作為對(duì)模型的反饋,不像監(jiān)督模型那樣,輸入數(shù)據(jù)僅僅是作為一個(gè)檢查模型對(duì)錯(cuò)的方式,在強(qiáng)化學(xué)習(xí)下,輸入數(shù)據(jù)直接反饋到模型,模型必須對(duì)此立刻作出調(diào)整。