這確實是一個難以回答的問題。考慮到機器學習和統(tǒng)計模型解決問題的相似性,兩者的區(qū)別似乎僅僅在于數(shù)據(jù)量和模型建立者的不同。這里有一張覆蓋機器學習和統(tǒng)計模型的數(shù)據(jù)科學維恩圖。
在這篇文章中,我將盡最大的努力來展示機器學習和統(tǒng)計模型的區(qū)別,同時也歡迎業(yè)界有經(jīng)驗的朋友對本文進行補充。
在我開始之前,讓我們先明確使用這些工具背后的目標。無論采用哪種工具去分析問題,最終的目標都是從數(shù)據(jù)獲得知識。兩種方法都旨在通過分析數(shù)據(jù)的產(chǎn)生機制挖掘 背后隱藏的信息。
兩種方法的分析目標是相同的。現(xiàn)在讓我們詳細的探究一下其定義及差異。
定義
機器學習:一種不依賴于規(guī)則設(shè)計的數(shù)據(jù)學習算法。
統(tǒng)計模型:以數(shù)學方程形式表現(xiàn)變量之間關(guān)系的程式化表達
對于喜歡從實際應用中了解概念的人,上述表達也許并不明確。讓我們看一個商務的案例。
商業(yè)案例
讓我們用麥肯錫發(fā)布的一個有趣案例來區(qū)分兩個算法。
案例:分析理解電信公司一段時間內(nèi)客戶的流失水平。
可獲得數(shù)據(jù):兩個驅(qū)動-A&B
麥肯錫接下來的展示足夠讓人興奮。盯住下圖來理解一下統(tǒng)計模型和機器學習算法的差別。
從上圖中你觀察到了什么?統(tǒng)計模型在分類問題中得到一個簡單的分類線。 一條非線性的邊界線區(qū)分了高風險人群和低風險人群。 但當我們看到通過機器學習產(chǎn)生的顏色時, 我們發(fā)現(xiàn)統(tǒng)計模型似乎沒有辦法和機器學習算法進行比較。 機器學習的方法獲得了任何邊界都無法詳細表征的信息。這就是機器學習可以為你做的。
機器學習還被應用在YouTube 和Google的引擎推薦上, 機器學習通過瞬間分析大量的觀測樣本給出近乎完美的推薦建議。 即使只采用一個16 G 內(nèi)存的筆記本,我每天處理數(shù)十萬行的數(shù)千個參數(shù)的模型也不會超過30分鐘。 然而一個統(tǒng)計模型需要在一臺超級計算機跑一百萬年來來觀察數(shù)千個參數(shù)。
機器學習和統(tǒng)計模型的差異:
在給出了兩種模型在輸出上的差異后,讓我們更深入的了解兩種范式的差異,雖然它們所做的工作類似。
所屬的學派
產(chǎn)生時間
基于的假設(shè)
處理數(shù)據(jù)的類型
操作和對象的術(shù)語
使用的技術(shù)
預測效果和人力投入
以上提到的方面都能從每種程度上區(qū)分機器學習和統(tǒng)計模型,但并不能給出機器學習和統(tǒng)計模型的明確界限。
分屬不同的學派
機器學習:計算機科學和人工智能的一個分支,通過數(shù)據(jù)學習構(gòu)建分析系統(tǒng),不依賴明確的構(gòu)建規(guī)則。 統(tǒng)計模型:數(shù)學的分支用以發(fā)現(xiàn)變量之間相關(guān)關(guān)系從而預測輸出。
誕生年代不同
統(tǒng)計模型的歷史已經(jīng)有幾個世紀之久。但是機器學習卻是最近才發(fā)展起來的。二十世紀90年代,穩(wěn)定的數(shù)字化和廉價的計算使得數(shù)據(jù)科學家停止建立完整的模型而使用計算機進行模型建立。這催生了機器學習的發(fā)展。隨著數(shù)據(jù)規(guī)模和復雜程度的不斷提升,機器學習不斷展現(xiàn)出巨大的發(fā)展?jié)摿Α?/p>
假設(shè)程度差異
統(tǒng)計模型基于一系列的假設(shè)。例如線性回歸模型假設(shè):
(1) 自變量和因變量線性相關(guān) (2) 同方差 (3) 波動均值為0 (4) 觀測樣本相互獨立 (5) 波動服從正態(tài)分布
Logistics回歸同樣擁有很多的假設(shè)。即使是非線性回歸也要遵守一個連續(xù)的分割邊界的假設(shè)。然而機器學習卻從這些假設(shè)中脫身出來。機器學習最大的好處在于沒有連續(xù)性分割邊界的限制。同樣我們也并不需要假設(shè)自變量或因變量的分布。
數(shù)據(jù)區(qū)別
機器學習應用廣泛。 在線學習工具可飛速處理數(shù)據(jù)。這些機器學習工具可學習數(shù)以億計的觀測樣本,預測和學習同步進行。一些算法如隨機森林和梯度助推在處理大數(shù)據(jù)時速度很快。機器學習處理數(shù)據(jù)的廣度和深度很大。但統(tǒng)計模型一般應用在較小的數(shù)據(jù)量和較窄的數(shù)據(jù)屬性上。
命名公約
下面一些命名幾乎指相同的東西:
公式:
雖然統(tǒng)計模型和機器學習的最終目標是相似的,但其公式化的結(jié)構(gòu)卻非常不同
在統(tǒng)計模型中,我們試圖估計f 函數(shù) 通過
因變量(Y)=f(自變量)+ 擾動 函數(shù)
機器學習放棄采用函數(shù)f的形式,簡化為:
輸出(Y)——> 輸入(X)
它試圖找到n維變量X的袋子,在袋子間Y的取值明顯不同。
預測效果和人力投入
自然在事情發(fā)生前并不給出任何假設(shè)。 一個預測模型中越少的假設(shè),越高的預測效率。機器學習命名的內(nèi)在含義為減少人力投入。機器學習通過反復迭代學習發(fā)現(xiàn)隱藏在數(shù)據(jù)中的科學。由于機器學習作用在真實的數(shù)據(jù)上并不依賴于假設(shè),預測效果是非常好的。統(tǒng)計模型是數(shù)學的加強,依賴于參數(shù)估計。它要求模型的建立者,提前知道或了解變量之間的關(guān)系。
結(jié)束語
雖然機器學習和統(tǒng)計模型看起來為預測模型的不同分支,但它們近乎相同。通過數(shù)十年的發(fā)展兩種模型的差異性越來越小。模型之間相互滲透相互學習使得未來兩種模型的界限更加模糊。
原文鏈接:
http://www.analyticsvidhya.com/blog/2015/07/difference-machine-learning-statistical-modeling/
原文作者:TAVISH SRIVASTAVA