自我研習(xí)數(shù)據(jù)分析

升級(jí)版IV的內(nèi)容變化:

1. 拒絕簡(jiǎn)單的“調(diào)包”——增加3次“機(jī)器學(xué)習(xí)的角度看數(shù)學(xué)”和3次“Python數(shù)據(jù)清洗和特征提取”,提升學(xué)習(xí)深度、降低學(xué)習(xí)坡度。

2. 增加網(wǎng)絡(luò)爬蟲(chóng)的原理和編寫(xiě),從獲取數(shù)據(jù)開(kāi)始,重視將實(shí)踐問(wèn)題轉(zhuǎn)換成實(shí)際模型的能力,分享工作中的實(shí)際案例或Kaggle案例:廣告銷量分析、環(huán)境數(shù)據(jù)異常檢測(cè)和分析、數(shù)字圖像手寫(xiě)體識(shí)別、Titanic乘客存活率預(yù)測(cè)、用戶-電影推薦、真實(shí)新聞組數(shù)據(jù)主題分析、中文分詞、股票數(shù)據(jù)特征分析等。

3. 強(qiáng)化矩陣運(yùn)算、概率論、數(shù)理統(tǒng)計(jì)的知識(shí)運(yùn)用,掌握機(jī)器學(xué)習(xí)根本。

4. 闡述機(jī)器學(xué)習(xí)原理,提供配套源碼和數(shù)據(jù);確?!岸茖?dǎo),會(huì)實(shí)現(xiàn)”。

5. 刪去過(guò)于晦澀的公式推導(dǎo),代之以直觀解釋,增強(qiáng)感性理解。

6. 重視項(xiàng)目實(shí)踐(如工業(yè)實(shí)踐、Kaggle等),重視落地。

7. 對(duì)比不同的特征選擇帶來(lái)的預(yù)測(cè)效果差異。

8. 思考不同算法之間的區(qū)別和聯(lián)系,提高在實(shí)際工作中選擇算法的能力。

9. 涉及和講解的部分Python庫(kù)有:Numpy/Scipy/matplotlib/Pandas/scikit-learn/XGBoost/libSVM/LDA/Gensim/NLTK/HMMLearn,涉及的其他“小”庫(kù)在課程的實(shí)踐環(huán)節(jié)會(huì)逐一講解。

10. 每個(gè)算法模塊按照“原理講解->自己動(dòng)手實(shí)現(xiàn)->使用已有機(jī)器學(xué)習(xí)庫(kù)”的順序,切實(shí)做到“頂天立地”。

課程大綱

1、機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)1 - 數(shù)學(xué)分析

機(jī)器學(xué)習(xí)的一般方法和橫向比較

數(shù)學(xué)是有用的:以SVD為例

機(jī)器學(xué)習(xí)的角度看數(shù)學(xué)

復(fù)習(xí)數(shù)學(xué)分析

直觀解釋常數(shù)e

導(dǎo)數(shù)/梯度

隨機(jī)梯度下降

Taylor展式的落地應(yīng)用

gini系數(shù)

凸函數(shù)

Jensen不等式

組合數(shù)與信息熵的關(guān)系

2、機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)2 - 概率論與貝葉斯先驗(yàn)

概率論基礎(chǔ)

古典概型

貝葉斯公式

先驗(yàn)分布/后驗(yàn)分布/共軛分布

常見(jiàn)概率分布

泊松分布和指數(shù)分布的物理意義

協(xié)方差(矩陣)和相關(guān)系數(shù)

獨(dú)立和不相關(guān)

大數(shù)定律和中心極限定理的實(shí)踐意義

深刻理解最大似然估計(jì)MLE和最大后驗(yàn)估計(jì)MAP

過(guò)擬合的數(shù)學(xué)原理與解決方案

3、機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)3 - 矩陣和線性代數(shù)

線性代數(shù)在數(shù)學(xué)科學(xué)中的地位

馬爾科夫模型

矩陣乘法的直觀表達(dá)

狀態(tài)轉(zhuǎn)移矩陣

矩陣和向量組

特征向量的思考和實(shí)踐計(jì)算

QR分解

對(duì)稱陣、正交陣、正定陣

數(shù)據(jù)白化及其應(yīng)用

向量對(duì)向量求導(dǎo)

標(biāo)量對(duì)向量求導(dǎo)

標(biāo)量對(duì)矩陣求導(dǎo)

3、機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)3 - 數(shù)理統(tǒng)計(jì)與參數(shù)估計(jì)

統(tǒng)計(jì)量

期望/方差/偏度/峰度

中心矩/原點(diǎn)矩

矩估計(jì)

深刻理解最大似然估計(jì)

過(guò)擬合的數(shù)學(xué)原理與解決方案

最大后驗(yàn)估計(jì)MAP

偏差方差二難

4、Python基礎(chǔ)1 - Python及其數(shù)學(xué)庫(kù)

解釋器Python2.7與IDE:Anaconda/Pycharm

Python基礎(chǔ):列表/元組/字典/類/文件

Taylor展式的代碼實(shí)現(xiàn)

numpy/scipy/matplotlib/panda的介紹和典型使用

多元高斯分布

泊松分布、冪律分布

典型圖像處理

5、Python基礎(chǔ)2 - 機(jī)器學(xué)習(xí)庫(kù)

scikit-learn的介紹和典型使用

損失函數(shù)的繪制

多種數(shù)學(xué)曲線

多項(xiàng)式擬合

快速傅里葉變換FFT

奇異值分解SVD

Soble/Prewitt/Laplacian算子與卷積網(wǎng)絡(luò)

卷積與(指數(shù))移動(dòng)平均線

股票數(shù)據(jù)分析

6、Python基礎(chǔ)3 - 數(shù)據(jù)清洗和特征選擇

實(shí)際生產(chǎn)問(wèn)題中算法和特征的關(guān)系

股票數(shù)據(jù)的特征提取和應(yīng)用

一致性檢驗(yàn)

缺失數(shù)據(jù)的處理

環(huán)境數(shù)據(jù)異常檢測(cè)和分析

模糊數(shù)據(jù)查詢和數(shù)據(jù)校正方法、算法、應(yīng)用

7、回歸

線性回歸

Logistic/Softmax回歸

廣義線性回歸

L1/L2正則化

Ridge與LASSO

Elastic Net

梯度下降算法:BGD與SGD

特征選擇與過(guò)擬合

Softmax回歸的概念源頭

最大熵模型

K-L散度

8、回歸實(shí)踐

機(jī)器學(xué)習(xí)sklearn庫(kù)介紹

回歸代碼實(shí)現(xiàn)和調(diào)參

Ridge回歸/LASSO/Elastic Net

Logistic/Softmax回歸

廣告投入與銷售額回歸分析

鳶尾花數(shù)據(jù)集的分類

回歸代碼實(shí)現(xiàn)和調(diào)參

交叉驗(yàn)證

數(shù)據(jù)可視化

9、決策樹(shù)和隨機(jī)森林

熵、聯(lián)合熵、條件熵、KL散度、互信息

最大似然估計(jì)與最大熵模型

ID3、C4.5、CART詳解

決策樹(shù)的正則化

預(yù)剪枝和后剪枝

Bagging

隨機(jī)森林

不平衡數(shù)據(jù)集的處理

利用隨機(jī)森林做特征選擇

使用隨機(jī)森林計(jì)算樣本相似度

10、隨機(jī)森林實(shí)踐

隨機(jī)森林與特征選擇

決策樹(shù)應(yīng)用于回歸

多標(biāo)記的決策樹(shù)回歸

決策樹(shù)和隨機(jī)森林的可視化

葡萄酒數(shù)據(jù)集的決策樹(shù)/隨機(jī)森林分類

11、提升

提升為什么有效

Adaboost算法

加法模型與指數(shù)損失

梯度提升決策樹(shù)GBDT

XGBoost算法詳解

12、XGBoost實(shí)踐

自己動(dòng)手實(shí)現(xiàn)GBDT

XGBoost庫(kù)介紹

Taylor展式與學(xué)習(xí)算法

KAGGLE簡(jiǎn)介

泰坦尼克乘客存活率估計(jì)

13、SVM

線性可分支持向量機(jī)

軟間隔的改進(jìn)

損失函數(shù)的理解

核函數(shù)的原理和選擇

SMO算法

支持向量回歸SVR

14、SVM實(shí)踐

libSVM代碼庫(kù)介紹

原始數(shù)據(jù)和特征提取

調(diào)用開(kāi)源庫(kù)函數(shù)完成SVM

葡萄酒數(shù)據(jù)分類

數(shù)字圖像的手寫(xiě)體識(shí)別

SVR用于時(shí)間序列曲線預(yù)測(cè)

SVM、Logistic回歸、隨機(jī)森林三者的橫向比較

15、聚類

各種相似度度量及其相互關(guān)系

Jaccard相似度和準(zhǔn)確率、召回率

Pearson相關(guān)系數(shù)與余弦相似度

K-means與K-Medoids及變種

AP算法(Sci07)/LPA算法及其應(yīng)用

密度聚類DBSCAN/DensityPeak(Sci14)

譜聚類SC

聚類評(píng)價(jià)和結(jié)果指標(biāo)

16、聚類實(shí)踐

K-Means++算法原理和實(shí)現(xiàn)

向量量化VQ及圖像近似

并查集的實(shí)踐應(yīng)用

密度聚類的代碼實(shí)現(xiàn)

譜聚類用于圖片分割

17、EM算法

最大似然估計(jì)

Jensen不等式

樸素理解EM算法

精確推導(dǎo)EM算法

EM算法的深入理解

混合高斯分布

主題模型pLSA

18、EM算法實(shí)踐

多元高斯分布的EM實(shí)現(xiàn)

分類結(jié)果的數(shù)據(jù)可視化

EM與聚類的比較

Dirichlet過(guò)程EM

三維及等高線等圖件的繪制

主題模型pLSA與EM算法

19、貝葉斯網(wǎng)絡(luò)

樸素貝葉斯

貝葉斯網(wǎng)絡(luò)的表達(dá)

條件概率表參數(shù)個(gè)數(shù)分析

馬爾科夫模型

D-separation

條件獨(dú)立的三種類型

Markov Blanket

混合(離散+連續(xù))網(wǎng)絡(luò):線性高斯模型

Chow-Liu算法:最大權(quán)生成樹(shù)MSWT

20、樸素貝葉斯實(shí)踐

GaussianNB

MultinomialNB

BernoulliNB

樸素貝葉斯用于鳶尾花數(shù)據(jù)

樸素貝葉斯用于18000+篇新聞文本的分類

21、主題模型LDA

貝葉斯學(xué)派的模型認(rèn)識(shí)

共軛先驗(yàn)分布

Dirichlet分布

Laplace平滑

Gibbs采樣詳解

22、LDA實(shí)踐

網(wǎng)絡(luò)爬蟲(chóng)的原理和代碼實(shí)現(xiàn)

停止詞和高頻詞

動(dòng)手自己實(shí)現(xiàn)LDA

LDA開(kāi)源包的使用和過(guò)程分析

Metropolis-Hastings算法

MCMC

LDA與word2vec的比較

23、隱馬爾科夫模型HMM

概率計(jì)算問(wèn)題

前向/后向算法

HMM的參數(shù)學(xué)習(xí)

Baum-Welch算法詳解

Viterbi算法詳解

隱馬爾科夫模型的應(yīng)用優(yōu)劣比較

24、HMM實(shí)踐

動(dòng)手自己實(shí)現(xiàn)HMM用于中文分詞

多個(gè)語(yǔ)言分詞開(kāi)源包的使用和過(guò)程分析

文件數(shù)據(jù)格式UFT-8、Unicode

停止詞和標(biāo)點(diǎn)符號(hào)對(duì)分詞的影響

前向后向算法計(jì)算概率溢出的解決方案

發(fā)現(xiàn)新詞和分詞效果分析

高斯混合模型HMM

GMM-HMM用于股票數(shù)據(jù)特征提取升級(jí)版IV的內(nèi)容變化:

1. 拒絕簡(jiǎn)單的“調(diào)包”——增加3次“機(jī)器學(xué)習(xí)的角度看數(shù)學(xué)”和3次“Python數(shù)據(jù)清洗和特征提取”,提升學(xué)習(xí)深度、降低學(xué)習(xí)坡度。

2. 增加網(wǎng)絡(luò)爬蟲(chóng)的原理和編寫(xiě),從獲取數(shù)據(jù)開(kāi)始,重視將實(shí)踐問(wèn)題轉(zhuǎn)換成實(shí)際模型的能力,分享工作中的實(shí)際案例或Kaggle案例:廣告銷量分析、環(huán)境數(shù)據(jù)異常檢測(cè)和分析、數(shù)字圖像手寫(xiě)體識(shí)別、Titanic乘客存活率預(yù)測(cè)、用戶-電影推薦、真實(shí)新聞組數(shù)據(jù)主題分析、中文分詞、股票數(shù)據(jù)特征分析等。

3. 強(qiáng)化矩陣運(yùn)算、概率論、數(shù)理統(tǒng)計(jì)的知識(shí)運(yùn)用,掌握機(jī)器學(xué)習(xí)根本。

4. 闡述機(jī)器學(xué)習(xí)原理,提供配套源碼和數(shù)據(jù);確保“懂推導(dǎo),會(huì)實(shí)現(xiàn)”。

5. 刪去過(guò)于晦澀的公式推導(dǎo),代之以直觀解釋,增強(qiáng)感性理解。

6. 重視項(xiàng)目實(shí)踐(如工業(yè)實(shí)踐、Kaggle等),重視落地。

7. 對(duì)比不同的特征選擇帶來(lái)的預(yù)測(cè)效果差異。

8. 思考不同算法之間的區(qū)別和聯(lián)系,提高在實(shí)際工作中選擇算法的能力。

9. 涉及和講解的部分Python庫(kù)有:Numpy/Scipy/matplotlib/Pandas/scikit-learn/XGBoost/libSVM/LDA/Gensim/NLTK/HMMLearn,涉及的其他“小”庫(kù)在課程的實(shí)踐環(huán)節(jié)會(huì)逐一講解。

10. 每個(gè)算法模塊按照“原理講解->自己動(dòng)手實(shí)現(xiàn)->使用已有機(jī)器學(xué)習(xí)庫(kù)”的順序,切實(shí)做到“頂天立地”。

課程大綱

1、機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)1 - 數(shù)學(xué)分析

機(jī)器學(xué)習(xí)的一般方法和橫向比較

數(shù)學(xué)是有用的:以SVD為例

機(jī)器學(xué)習(xí)的角度看數(shù)學(xué)

復(fù)習(xí)數(shù)學(xué)分析

直觀解釋常數(shù)e

導(dǎo)數(shù)/梯度

隨機(jī)梯度下降

Taylor展式的落地應(yīng)用

gini系數(shù)

凸函數(shù)

Jensen不等式

組合數(shù)與信息熵的關(guān)系

2、機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)2 - 概率論與貝葉斯先驗(yàn)

概率論基礎(chǔ)

古典概型

貝葉斯公式

先驗(yàn)分布/后驗(yàn)分布/共軛分布

常見(jiàn)概率分布

泊松分布和指數(shù)分布的物理意義

協(xié)方差(矩陣)和相關(guān)系數(shù)

獨(dú)立和不相關(guān)

大數(shù)定律和中心極限定理的實(shí)踐意義

深刻理解最大似然估計(jì)MLE和最大后驗(yàn)估計(jì)MAP

過(guò)擬合的數(shù)學(xué)原理與解決方案

3、機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)3 - 矩陣和線性代數(shù)

線性代數(shù)在數(shù)學(xué)科學(xué)中的地位

馬爾科夫模型

矩陣乘法的直觀表達(dá)

狀態(tài)轉(zhuǎn)移矩陣

矩陣和向量組

特征向量的思考和實(shí)踐計(jì)算

QR分解

對(duì)稱陣、正交陣、正定陣

數(shù)據(jù)白化及其應(yīng)用

向量對(duì)向量求導(dǎo)

標(biāo)量對(duì)向量求導(dǎo)

標(biāo)量對(duì)矩陣求導(dǎo)

3、機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)3 - 數(shù)理統(tǒng)計(jì)與參數(shù)估計(jì)

統(tǒng)計(jì)量

期望/方差/偏度/峰度

中心矩/原點(diǎn)矩

矩估計(jì)

深刻理解最大似然估計(jì)

過(guò)擬合的數(shù)學(xué)原理與解決方案

最大后驗(yàn)估計(jì)MAP

偏差方差二難

4、Python基礎(chǔ)1 - Python及其數(shù)學(xué)庫(kù)

解釋器Python2.7與IDE:Anaconda/Pycharm

Python基礎(chǔ):列表/元組/字典/類/文件

Taylor展式的代碼實(shí)現(xiàn)

numpy/scipy/matplotlib/panda的介紹和典型使用

多元高斯分布

泊松分布、冪律分布

典型圖像處理

5、Python基礎(chǔ)2 - 機(jī)器學(xué)習(xí)庫(kù)

scikit-learn的介紹和典型使用

損失函數(shù)的繪制

多種數(shù)學(xué)曲線

多項(xiàng)式擬合

快速傅里葉變換FFT

奇異值分解SVD

Soble/Prewitt/Laplacian算子與卷積網(wǎng)絡(luò)

卷積與(指數(shù))移動(dòng)平均線

股票數(shù)據(jù)分析

6、Python基礎(chǔ)3 - 數(shù)據(jù)清洗和特征選擇

實(shí)際生產(chǎn)問(wèn)題中算法和特征的關(guān)系

股票數(shù)據(jù)的特征提取和應(yīng)用

一致性檢驗(yàn)

缺失數(shù)據(jù)的處理

環(huán)境數(shù)據(jù)異常檢測(cè)和分析

模糊數(shù)據(jù)查詢和數(shù)據(jù)校正方法、算法、應(yīng)用

7、回歸

線性回歸

Logistic/Softmax回歸

廣義線性回歸

L1/L2正則化

Ridge與LASSO

Elastic Net

梯度下降算法:BGD與SGD

特征選擇與過(guò)擬合

Softmax回歸的概念源頭

最大熵模型

K-L散度

8、回歸實(shí)踐

機(jī)器學(xué)習(xí)sklearn庫(kù)介紹

回歸代碼實(shí)現(xiàn)和調(diào)參

Ridge回歸/LASSO/Elastic Net

Logistic/Softmax回歸

廣告投入與銷售額回歸分析

鳶尾花數(shù)據(jù)集的分類

回歸代碼實(shí)現(xiàn)和調(diào)參

交叉驗(yàn)證

數(shù)據(jù)可視化

9、決策樹(shù)和隨機(jī)森林

熵、聯(lián)合熵、條件熵、KL散度、互信息

最大似然估計(jì)與最大熵模型

ID3、C4.5、CART詳解

決策樹(shù)的正則化

預(yù)剪枝和后剪枝

Bagging

隨機(jī)森林

不平衡數(shù)據(jù)集的處理

利用隨機(jī)森林做特征選擇

使用隨機(jī)森林計(jì)算樣本相似度

10、隨機(jī)森林實(shí)踐

隨機(jī)森林與特征選擇

決策樹(shù)應(yīng)用于回歸

多標(biāo)記的決策樹(shù)回歸

決策樹(shù)和隨機(jī)森林的可視化

葡萄酒數(shù)據(jù)集的決策樹(shù)/隨機(jī)森林分類

11、提升

提升為什么有效

Adaboost算法

加法模型與指數(shù)損失

梯度提升決策樹(shù)GBDT

XGBoost算法詳解

12、XGBoost實(shí)踐

自己動(dòng)手實(shí)現(xiàn)GBDT

XGBoost庫(kù)介紹

Taylor展式與學(xué)習(xí)算法

KAGGLE簡(jiǎn)介

泰坦尼克乘客存活率估計(jì)

13、SVM

線性可分支持向量機(jī)

軟間隔的改進(jìn)

損失函數(shù)的理解

核函數(shù)的原理和選擇

SMO算法

支持向量回歸SVR

14、SVM實(shí)踐

libSVM代碼庫(kù)介紹

原始數(shù)據(jù)和特征提取

調(diào)用開(kāi)源庫(kù)函數(shù)完成SVM

葡萄酒數(shù)據(jù)分類

數(shù)字圖像的手寫(xiě)體識(shí)別

SVR用于時(shí)間序列曲線預(yù)測(cè)

SVM、Logistic回歸、隨機(jī)森林三者的橫向比較

15、聚類

各種相似度度量及其相互關(guān)系

Jaccard相似度和準(zhǔn)確率、召回率

Pearson相關(guān)系數(shù)與余弦相似度

K-means與K-Medoids及變種

AP算法(Sci07)/LPA算法及其應(yīng)用

密度聚類DBSCAN/DensityPeak(Sci14)

譜聚類SC

聚類評(píng)價(jià)和結(jié)果指標(biāo)

16、聚類實(shí)踐

K-Means++算法原理和實(shí)現(xiàn)

向量量化VQ及圖像近似

并查集的實(shí)踐應(yīng)用

密度聚類的代碼實(shí)現(xiàn)

譜聚類用于圖片分割

17、EM算法

最大似然估計(jì)

Jensen不等式

樸素理解EM算法

精確推導(dǎo)EM算法

EM算法的深入理解

混合高斯分布

主題模型pLSA

18、EM算法實(shí)踐

多元高斯分布的EM實(shí)現(xiàn)

分類結(jié)果的數(shù)據(jù)可視化

EM與聚類的比較

Dirichlet過(guò)程EM

三維及等高線等圖件的繪制

主題模型pLSA與EM算法

19、貝葉斯網(wǎng)絡(luò)

樸素貝葉斯

貝葉斯網(wǎng)絡(luò)的表達(dá)

條件概率表參數(shù)個(gè)數(shù)分析

馬爾科夫模型

D-separation

條件獨(dú)立的三種類型

Markov Blanket

混合(離散+連續(xù))網(wǎng)絡(luò):線性高斯模型

Chow-Liu算法:最大權(quán)生成樹(shù)MSWT

20、樸素貝葉斯實(shí)踐

GaussianNB

MultinomialNB

BernoulliNB

樸素貝葉斯用于鳶尾花數(shù)據(jù)

樸素貝葉斯用于18000+篇新聞文本的分類

21、主題模型LDA

貝葉斯學(xué)派的模型認(rèn)識(shí)

共軛先驗(yàn)分布

Dirichlet分布

Laplace平滑

Gibbs采樣詳解

22、LDA實(shí)踐

網(wǎng)絡(luò)爬蟲(chóng)的原理和代碼實(shí)現(xiàn)

停止詞和高頻詞

動(dòng)手自己實(shí)現(xiàn)LDA

LDA開(kāi)源包的使用和過(guò)程分析

Metropolis-Hastings算法

MCMC

LDA與word2vec的比較

23、隱馬爾科夫模型HMM

概率計(jì)算問(wèn)題

前向/后向算法

HMM的參數(shù)學(xué)習(xí)

Baum-Welch算法詳解

Viterbi算法詳解

隱馬爾科夫模型的應(yīng)用優(yōu)劣比較

24、HMM實(shí)踐

動(dòng)手自己實(shí)現(xiàn)HMM用于中文分詞

多個(gè)語(yǔ)言分詞開(kāi)源包的使用和過(guò)程分析

文件數(shù)據(jù)格式UFT-8、Unicode

停止詞和標(biāo)點(diǎn)符號(hào)對(duì)分詞的影響

前向后向算法計(jì)算概率溢出的解決方案

發(fā)現(xiàn)新詞和分詞效果分析

高斯混合模型HMM

GMM-HMM用于股票數(shù)據(jù)特征提取

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

推薦閱讀更多精彩內(nèi)容