【大話AI-深度學(xué)習(xí)】(一)--聊聊人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)

一、相關(guān)概念的簡(jiǎn)介


在了解深度學(xué)習(xí)前應(yīng)該還有兩個(gè)專業(yè)名詞大家也想必是耳熟能詳,那么就是人工智能機(jī)器學(xué)習(xí)

  • 人工智能(Artificial Intelligence):也就是我們經(jīng)常聽到的AI。它是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。但是在早期的時(shí)候,人工智能充滿了局限性,只是在特定的環(huán)境范圍下。
  • 機(jī)器學(xué)習(xí)(Machine Learning):簡(jiǎn)稱ML。機(jī)器學(xué)習(xí)其實(shí)是人工智能的一個(gè)分支。如果一個(gè)程序可以在任務(wù)(T) 上,隨著經(jīng)驗(yàn)(E)的增加,效果(P)也可以隨之增加,則就可以說這個(gè)程序可以從經(jīng)驗(yàn)中得到學(xué)習(xí)。
  • 深度學(xué)習(xí)(Deep Learning):簡(jiǎn)稱DL。深度學(xué)習(xí)也是機(jī)器學(xué)習(xí)的一個(gè)分支。主要是在機(jī)器學(xué)習(xí)的基礎(chǔ)之上有所改進(jìn):它除了可以學(xué)習(xí)特征任務(wù)之間的關(guān)聯(lián),還可以自動(dòng)的將簡(jiǎn)單的特征組合成更加復(fù)雜的特征,并使用這些組合特征解決問題。

二、了解機(jī)器學(xué)習(xí)(ML)


1. 用例子認(rèn)識(shí)機(jī)器學(xué)習(xí)的概念

其實(shí),郵件系統(tǒng)中判斷收到的郵件是否為垃圾郵件就可以看做是一個(gè)機(jī)器學(xué)習(xí)的過程。首先對(duì)垃圾郵件分類概念進(jìn)行一個(gè)拆分、類比:

  • 一個(gè)程序 <======> 需要用到的機(jī)器學(xué)習(xí)算法,比如邏輯回歸算法
  • 任務(wù)(T) <======> 區(qū)分此郵件是否是垃圾郵件這個(gè)任務(wù)
  • 經(jīng)驗(yàn)(E) <======> 已經(jīng)區(qū)分過是否為垃圾郵件的歷史事件
  • 效果(P) <======> 機(jī)器學(xué)習(xí)算法在區(qū)分此郵件是否是垃圾郵件這個(gè)任務(wù)的精確率

在整個(gè)過程中,首先會(huì)從每一封郵件中抽取出對(duì)分類結(jié)果可能有影響的因素(比如:發(fā)件人的地址、郵件的標(biāo)題、收件人的數(shù)量、郵件正題內(nèi)容,so on)。這樣的每一個(gè)因素其實(shí)可以成為是一個(gè)特征 (feature)。然而機(jī)器學(xué)習(xí)算法中的邏輯回歸算法可以從訓(xùn)練數(shù)據(jù)中計(jì)算出每個(gè)特征和預(yù)測(cè)結(jié)果的相關(guān)度。例如,在垃圾郵件分類過程中,可能會(huì)發(fā)現(xiàn)如果一個(gè)郵件的收件人越多,那么這封郵件是垃圾郵件的可能性越大。
在對(duì)一封完全未知的郵件進(jìn)行區(qū)分時(shí),邏輯回歸算法會(huì)根據(jù)這封郵件中抽取到的每一個(gè)特征以及這些特征和垃圾郵件的相關(guān)度進(jìn)行判斷是否為垃圾郵件。
所以,從例子中不難看出:一般情況下,在訓(xùn)練數(shù)據(jù)達(dá)到一定數(shù)量之前,越多的訓(xùn)練數(shù)據(jù)可以使得邏輯回歸算法對(duì)未知郵件做出的判斷越精確

也就是說邏輯回歸算法可以根據(jù)訓(xùn)練數(shù)據(jù)【經(jīng)驗(yàn)(E)】提高垃圾郵件分類問題【任務(wù)(T)】上的準(zhǔn)確率【效果(P)】

2.機(jī)器學(xué)習(xí)的分類

  • 有監(jiān)督學(xué)習(xí)(Supervised Learning)

有監(jiān)督學(xué)習(xí)可分為回歸分類問題。例如上述示例垃圾郵件分類就屬于有監(jiān)督學(xué)習(xí)
1.在回歸問題中,我們會(huì)預(yù)測(cè)一個(gè)連續(xù)值;也就是我們?cè)噲D將輸入變量和輸出用一個(gè)連續(xù)函數(shù)對(duì)應(yīng)起來。
2.在分類問題中,我們會(huì)預(yù)測(cè)一個(gè)離散值,我們?cè)噲D將輸入變量與離散的類別對(duì)應(yīng)起來。

  • 無監(jiān)督學(xué)習(xí)(Unsupervised Leanring)

這種學(xué)習(xí)方式,數(shù)據(jù)并不被特別標(biāo)識(shí),學(xué)習(xí)模型是為了推斷出數(shù)據(jù)的一些內(nèi)在結(jié)構(gòu)。

  • 增強(qiáng)式學(xué)習(xí)(Reinforcement Learning)

輸入數(shù)據(jù)作為對(duì)模型的反饋,不像監(jiān)督模型那樣,輸入數(shù)據(jù)僅僅是作為一個(gè)檢查模型對(duì)錯(cuò)的方式,在強(qiáng)化學(xué)習(xí)下,輸入數(shù)據(jù)直接反饋到模型,模型必須對(duì)此立刻作出調(diào)整。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

推薦閱讀更多精彩內(nèi)容