數(shù)學(xué)分析
- SVD
- 常數(shù)e
- 導(dǎo)數(shù)/梯度
- 隨機(jī)梯度下降
- Taylor展式的落地應(yīng)用
- gini系數(shù)
- 凸函數(shù)
- Jensen不等式
- 組合數(shù)與信息熵
概率論與貝葉斯先驗
- 古典概型
- 貝葉斯公式
- 先驗分布/后驗分布/共軛分布
- 常見概率分布
- 泊松分布和指數(shù)分布
- 協(xié)方差(矩陣)和相關(guān)系數(shù)
- 獨(dú)立和不相關(guān)
- 大數(shù)定律和中心極限定理的實(shí)踐意義
- 深刻理解最大似然估計MLE和最大后驗估計MAP
- 過擬合的數(shù)學(xué)原理與解決方案
矩陣和線性代數(shù)
- 馬爾科夫模型
- 矩陣乘法
- 狀態(tài)轉(zhuǎn)移矩陣
- 矩陣和向量組
- 特征向量的思考和實(shí)踐計算
- QR分解
- 對稱陣、正交陣、正定陣
- 數(shù)據(jù)白化及其應(yīng)用
- 向量對向量求導(dǎo)
- 標(biāo)量對向量求導(dǎo)
- 標(biāo)量對矩陣求導(dǎo)
Python基礎(chǔ)1 - Python及其數(shù)學(xué)庫
解釋器Python2.7與IDE:Anaconda/Pycharm
Python基礎(chǔ):列表/元組/字典/類/文件
Taylor展式的代碼實(shí)現(xiàn)
numpy/scipy/matplotlib/panda的介紹和典型使用
多元高斯分布
泊松分布、冪律分布
典型圖像處理
蝴蝶效應(yīng)
分形
第五課:Python基礎(chǔ)2 - 機(jī)器學(xué)習(xí)庫
scikit-learn的介紹和典型使用
損失函數(shù)的繪制
多種數(shù)學(xué)曲線
多項式擬合
快速傅里葉變換FFT
奇異值分解SVD
Soble/Prewitt/Laplacian算子與卷積網(wǎng)絡(luò)
卷積與(指數(shù))移動平均線
股票數(shù)據(jù)分析
第六課:Python基礎(chǔ)3 - 數(shù)據(jù)清洗和特征選擇
實(shí)際生產(chǎn)問題中算法和特征的關(guān)系
股票數(shù)據(jù)的特征提取和應(yīng)用
一致性檢驗
缺失數(shù)據(jù)的處理
環(huán)境數(shù)據(jù)異常檢測和分析
模糊數(shù)據(jù)查詢和數(shù)據(jù)校正方法、算法、應(yīng)用
樸素貝葉斯用于鳶尾花數(shù)據(jù)
GaussianNB/MultinomialNB/BernoulliNB
樸素貝葉斯用于18000+篇/Sogou新聞文本的分類
第七課: 回歸
線性回歸
Logistic/Softmax回歸
廣義線性回歸
L1/L2正則化
Ridge與LASSO
Elastic Net
梯度下降算法:BGD與SGD
特征選擇與過擬合
第八課:Logistic回歸
Sigmoid函數(shù)的直觀解釋
Softmax回歸的概念源頭
Logistic/Softmax回歸
最大熵模型
K-L散度
損失函數(shù)
Softmax回歸的實(shí)現(xiàn)與調(diào)參
第九課:回歸實(shí)踐
機(jī)器學(xué)習(xí)sklearn庫介紹
線性回歸代碼實(shí)現(xiàn)和調(diào)參
Softmax回歸代碼實(shí)現(xiàn)和調(diào)參
Ridge回歸/LASSO/Elastic Net
Logistic/Softmax回歸
廣告投入與銷售額回歸分析
鳶尾花數(shù)據(jù)集的分類
交叉驗證
數(shù)據(jù)可視化
第十課:決策樹和隨機(jī)森林
熵、聯(lián)合熵、條件熵、KL散度、互信息
最大似然估計與最大熵模型
ID3、C4.5、CART詳解
決策樹的正則化
預(yù)剪枝和后剪枝
Bagging
隨機(jī)森林
不平衡數(shù)據(jù)集的處理
利用隨機(jī)森林做特征選擇
使用隨機(jī)森林計算樣本相似度
數(shù)據(jù)異常值檢測
第十一課:隨機(jī)森林實(shí)踐
隨機(jī)森林與特征選擇
決策樹應(yīng)用于回歸
多標(biāo)記的決策樹回歸
決策樹和隨機(jī)森林的可視化
葡萄酒數(shù)據(jù)集的決策樹/隨機(jī)森林分類
波士頓房價預(yù)測
第十二課:提升
提升為什么有效
梯度提升決策樹GBDT
XGBoost算法詳解
Adaboost算法
加法模型與指數(shù)損失
第十三課:提升實(shí)踐
Adaboost用于蘑菇數(shù)據(jù)分類
Adaboost與隨機(jī)森林的比較
XGBoost庫介紹
Taylor展式與學(xué)習(xí)算法
KAGGLE簡介
泰坦尼克乘客存活率估計
第十四課:SVM
線性可分支持向量機(jī)
軟間隔的改進(jìn)
損失函數(shù)的理解
核函數(shù)的原理和選擇
SMO算法
支持向量回歸SVR
第十五課:SVM實(shí)踐
libSVM代碼庫介紹
原始數(shù)據(jù)和特征提取
調(diào)用開源庫函數(shù)完成SVM
葡萄酒數(shù)據(jù)分類
數(shù)字圖像的手寫體識別
SVR用于時間序列曲線預(yù)測
SVM、Logistic回歸、隨機(jī)森林三者的橫向比較
第十六課:聚類(上)
各種相似度度量及其相互關(guān)系
Jaccard相似度和準(zhǔn)確率、召回率
Pearson相關(guān)系數(shù)與余弦相似度
K-means與K-Medoids及變種
AP算法(Sci07)/LPA算法及其應(yīng)用
第十七課:聚類(下)
密度聚類DBSCAN/DensityPeak(Sci14)
DensityPeak(Sci14)
譜聚類SC
聚類評價AMI/ARI/Silhouette
LPA算法及其應(yīng)用
第十八課:聚類實(shí)踐
K-Means++算法原理和實(shí)現(xiàn)
向量量化VQ及圖像近似
并查集的實(shí)踐應(yīng)用
密度聚類的代碼實(shí)現(xiàn)
譜聚類用于圖片分割
第十九課:EM算法
最大似然估計
Jensen不等式
樸素理解EM算法
精確推導(dǎo)EM算法
EM算法的深入理解
混合高斯分布
主題模型pLSA
第二十課:EM算法實(shí)踐
多元高斯分布的EM實(shí)現(xiàn)
分類結(jié)果的數(shù)據(jù)可視化
EM與聚類的比較
Dirichlet過程EM
三維及等高線等圖件的繪制
主題模型pLSA與EM算法
第二十一課:主題模型LDA
貝葉斯學(xué)派的模型認(rèn)識
共軛先驗分布
Dirichlet分布
Laplace平滑
Gibbs采樣詳解
第二十二課:LDA實(shí)踐
網(wǎng)絡(luò)爬蟲的原理和代碼實(shí)現(xiàn)
停止詞和高頻詞
動手自己實(shí)現(xiàn)LDA
LDA開源包的使用和過程分析
Metropolis-Hastings算法
MCMC
LDA與word2vec的比較
第二十三課:隱馬爾科夫模型HMM
概率計算問題
前向/后向算法
HMM的參數(shù)學(xué)習(xí)
Baum-Welch算法詳解
Viterbi算法詳解
隱馬爾科夫模型的應(yīng)用優(yōu)劣比較
第二十四課:HMM實(shí)踐
動手自己實(shí)現(xiàn)HMM用于中文分詞
多個語言分詞開源包的使用和過程分析
文件數(shù)據(jù)格式UFT-8、Unicode
停止詞和標(biāo)點(diǎn)符號對分詞的影響
前向后向算法計算概率溢出的解決方案
發(fā)現(xiàn)新詞和分詞效果分析
高斯混合模型HMM
GMM-HMM用于股票數(shù)據(jù)特征提取