數(shù)學(xué)分析

  • SVD
  • 常數(shù)e
  • 導(dǎo)數(shù)/梯度
  • 隨機(jī)梯度下降
  • Taylor展式的落地應(yīng)用
  • gini系數(shù)
  • 凸函數(shù)
  • Jensen不等式
  • 組合數(shù)與信息熵

概率論與貝葉斯先驗

  • 古典概型
  • 貝葉斯公式
  • 先驗分布/后驗分布/共軛分布
  • 常見概率分布
  • 泊松分布和指數(shù)分布
  • 協(xié)方差(矩陣)和相關(guān)系數(shù)
  • 獨(dú)立和不相關(guān)
  • 大數(shù)定律和中心極限定理的實(shí)踐意義
  • 深刻理解最大似然估計MLE和最大后驗估計MAP
  • 過擬合的數(shù)學(xué)原理與解決方案

矩陣和線性代數(shù)

  • 馬爾科夫模型
  • 矩陣乘法
  • 狀態(tài)轉(zhuǎn)移矩陣
  • 矩陣和向量組
  • 特征向量的思考和實(shí)踐計算
  • QR分解
  • 對稱陣、正交陣、正定陣
  • 數(shù)據(jù)白化及其應(yīng)用
  • 向量對向量求導(dǎo)
  • 標(biāo)量對向量求導(dǎo)
  • 標(biāo)量對矩陣求導(dǎo)

Python基礎(chǔ)1 - Python及其數(shù)學(xué)庫

  1. 解釋器Python2.7與IDE:Anaconda/Pycharm

  2. Python基礎(chǔ):列表/元組/字典/類/文件

  3. Taylor展式的代碼實(shí)現(xiàn)

  4. numpy/scipy/matplotlib/panda的介紹和典型使用

  5. 多元高斯分布

  6. 泊松分布、冪律分布

  7. 典型圖像處理

  8. 蝴蝶效應(yīng)

  9. 分形

第五課:Python基礎(chǔ)2 - 機(jī)器學(xué)習(xí)庫

  1. scikit-learn的介紹和典型使用

  2. 損失函數(shù)的繪制

  3. 多種數(shù)學(xué)曲線

  4. 多項式擬合

  5. 快速傅里葉變換FFT

  6. 奇異值分解SVD

  7. Soble/Prewitt/Laplacian算子與卷積網(wǎng)絡(luò)

  8. 卷積與(指數(shù))移動平均線

  9. 股票數(shù)據(jù)分析

第六課:Python基礎(chǔ)3 - 數(shù)據(jù)清洗和特征選擇

  1. 實(shí)際生產(chǎn)問題中算法和特征的關(guān)系

  2. 股票數(shù)據(jù)的特征提取和應(yīng)用

  3. 一致性檢驗

  4. 缺失數(shù)據(jù)的處理

  5. 環(huán)境數(shù)據(jù)異常檢測和分析

  6. 模糊數(shù)據(jù)查詢和數(shù)據(jù)校正方法、算法、應(yīng)用

  7. 樸素貝葉斯用于鳶尾花數(shù)據(jù)

  8. GaussianNB/MultinomialNB/BernoulliNB

  9. 樸素貝葉斯用于18000+篇/Sogou新聞文本的分類

第七課: 回歸

  1. 線性回歸

  2. Logistic/Softmax回歸

  3. 廣義線性回歸

  4. L1/L2正則化

  5. Ridge與LASSO

  6. Elastic Net

  7. 梯度下降算法:BGD與SGD

  8. 特征選擇與過擬合

第八課:Logistic回歸

  1. Sigmoid函數(shù)的直觀解釋

  2. Softmax回歸的概念源頭

  3. Logistic/Softmax回歸

  4. 最大熵模型

  5. K-L散度

  6. 損失函數(shù)

  7. Softmax回歸的實(shí)現(xiàn)與調(diào)參

第九課:回歸實(shí)踐

  1. 機(jī)器學(xué)習(xí)sklearn庫介紹

  2. 線性回歸代碼實(shí)現(xiàn)和調(diào)參

  3. Softmax回歸代碼實(shí)現(xiàn)和調(diào)參

  4. Ridge回歸/LASSO/Elastic Net

  5. Logistic/Softmax回歸

  6. 廣告投入與銷售額回歸分析

  7. 鳶尾花數(shù)據(jù)集的分類

  8. 交叉驗證

  9. 數(shù)據(jù)可視化

第十課:決策樹和隨機(jī)森林

  1. 熵、聯(lián)合熵、條件熵、KL散度、互信息

  2. 最大似然估計與最大熵模型

  3. ID3、C4.5、CART詳解

  4. 決策樹的正則化

  5. 預(yù)剪枝和后剪枝

  6. Bagging

  7. 隨機(jī)森林

  8. 不平衡數(shù)據(jù)集的處理

  9. 利用隨機(jī)森林做特征選擇

  10. 使用隨機(jī)森林計算樣本相似度

  11. 數(shù)據(jù)異常值檢測

第十一課:隨機(jī)森林實(shí)踐

  1. 隨機(jī)森林與特征選擇

  2. 決策樹應(yīng)用于回歸

  3. 多標(biāo)記的決策樹回歸

  4. 決策樹和隨機(jī)森林的可視化

  5. 葡萄酒數(shù)據(jù)集的決策樹/隨機(jī)森林分類

  6. 波士頓房價預(yù)測

第十二課:提升

  1. 提升為什么有效

  2. 梯度提升決策樹GBDT

  3. XGBoost算法詳解

  4. Adaboost算法

  5. 加法模型與指數(shù)損失

第十三課:提升實(shí)踐

  1. Adaboost用于蘑菇數(shù)據(jù)分類

  2. Adaboost與隨機(jī)森林的比較

  3. XGBoost庫介紹

  4. Taylor展式與學(xué)習(xí)算法

  5. KAGGLE簡介

  6. 泰坦尼克乘客存活率估計

第十四課:SVM

  1. 線性可分支持向量機(jī)

  2. 軟間隔的改進(jìn)

  3. 損失函數(shù)的理解

  4. 核函數(shù)的原理和選擇

  5. SMO算法

  6. 支持向量回歸SVR

第十五課:SVM實(shí)踐

  1. libSVM代碼庫介紹

  2. 原始數(shù)據(jù)和特征提取

  3. 調(diào)用開源庫函數(shù)完成SVM

  4. 葡萄酒數(shù)據(jù)分類

  5. 數(shù)字圖像的手寫體識別

  6. SVR用于時間序列曲線預(yù)測

  7. SVM、Logistic回歸、隨機(jī)森林三者的橫向比較

第十六課:聚類(上)

  1. 各種相似度度量及其相互關(guān)系

  2. Jaccard相似度和準(zhǔn)確率、召回率

  3. Pearson相關(guān)系數(shù)與余弦相似度

  4. K-means與K-Medoids及變種

  5. AP算法(Sci07)/LPA算法及其應(yīng)用

第十七課:聚類(下)

  1. 密度聚類DBSCAN/DensityPeak(Sci14)

  2. DensityPeak(Sci14)

  3. 譜聚類SC

  4. 聚類評價AMI/ARI/Silhouette

  5. LPA算法及其應(yīng)用

第十八課:聚類實(shí)踐

  1. K-Means++算法原理和實(shí)現(xiàn)

  2. 向量量化VQ及圖像近似

  3. 并查集的實(shí)踐應(yīng)用

  4. 密度聚類的代碼實(shí)現(xiàn)

  5. 譜聚類用于圖片分割

第十九課:EM算法

  1. 最大似然估計

  2. Jensen不等式

  3. 樸素理解EM算法

  4. 精確推導(dǎo)EM算法

  5. EM算法的深入理解

  6. 混合高斯分布

  7. 主題模型pLSA

第二十課:EM算法實(shí)踐

  1. 多元高斯分布的EM實(shí)現(xiàn)

  2. 分類結(jié)果的數(shù)據(jù)可視化

  3. EM與聚類的比較

  4. Dirichlet過程EM

  5. 三維及等高線等圖件的繪制

  6. 主題模型pLSA與EM算法

第二十一課:主題模型LDA

  1. 貝葉斯學(xué)派的模型認(rèn)識

  2. 共軛先驗分布

  3. Dirichlet分布

  4. Laplace平滑

  5. Gibbs采樣詳解

第二十二課:LDA實(shí)踐

  1. 網(wǎng)絡(luò)爬蟲的原理和代碼實(shí)現(xiàn)

  2. 停止詞和高頻詞

  3. 動手自己實(shí)現(xiàn)LDA

  4. LDA開源包的使用和過程分析

  5. Metropolis-Hastings算法

  6. MCMC

  7. LDA與word2vec的比較

第二十三課:隱馬爾科夫模型HMM

  1. 概率計算問題

  2. 前向/后向算法

  3. HMM的參數(shù)學(xué)習(xí)

  4. Baum-Welch算法詳解

  5. Viterbi算法詳解

  6. 隱馬爾科夫模型的應(yīng)用優(yōu)劣比較

第二十四課:HMM實(shí)踐

  1. 動手自己實(shí)現(xiàn)HMM用于中文分詞

  2. 多個語言分詞開源包的使用和過程分析

  3. 文件數(shù)據(jù)格式UFT-8、Unicode

  4. 停止詞和標(biāo)點(diǎn)符號對分詞的影響

  5. 前向后向算法計算概率溢出的解決方案

  6. 發(fā)現(xiàn)新詞和分詞效果分析

  7. 高斯混合模型HMM

  8. GMM-HMM用于股票數(shù)據(jù)特征提取

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

推薦閱讀更多精彩內(nèi)容