awesome-knowledge-graph 整理知識圖譜相關學習資料,提供系統化的知識圖譜學習路徑 知識圖譜是什么 徐超-三個角度理解知識圖譜 從數據治理,語義連接,智能...

1 概述 1.1 HMM概念理解 首先我們需要對一些看起來比較相似的概念做一個總結和區分: 馬爾可夫性(Markov Property):無后效性或無記憶性,在已知“現在”的...
概率圖模型(probabilistic graphical model,PGM)是一類算法的統稱,是圖靈獎獲得者Pearl開發出來的用圖來表示變量概率依賴關系的理論,用途甚廣...
1 回顧感知機 廢話不多說,就不從什么模擬人類的神經元開始了,在感知機(Perceptron)中我們已經說過:感知機模型是神經網絡和支持向量機的基礎,現在我們終于講到神經網絡...
XGBoost(eXtreme Gradient Boosting)中文名叫極端梯度提升,可以看出它是一種gradient boosting算法,事實上,XGBoost是GB...
1 從boosting到gradient boosting (1)原理 從上一篇集成學習(3)boosting代表——Adaboost[https://www.jianshu...
1 Adaboost原理 回顧前文集成學習(1)模型誤差與集成學習中對boosting的定義: 2.boosting:針對不獨立的同質弱學習器。它以一種高度自適應的方法順序地...
回顧前文對bagging的定義: 1.bagging(Bootstrap Aggregating):針對獨立的同質弱學習器,相互獨立地并行學習這些弱學習器,并按照某種確定性的...
1 模型誤差——偏差與方差 之前我們已經說了不少模型,這些模型的特點是:1、都是有監督模型;2、都是個體模型,基本上都是一個輸入、一套參數、一個輸出。一般來說,我們的有監督模...
本篇開始總結一下以決策樹為基礎的模型,當然本篇的內容就是決策樹了,決策樹可以用來分類也可以用來回歸,用作分類的應該更多一些,我們也先從分類問題講起。 1 決策樹思想 決策樹的...
前面已經分別介紹了基于硬間隔最大化的線性可分支持向量機、基于軟間隔最大化的線性支持向量機,這次來總結下使用核函數來解決非線性可分問題的非線性支持向量機。 1 非線性可分問題怎...
1 原理 1) 背景 線性可分支持向量機基于硬間隔最大化,所謂硬間隔最大化,我理解的就是指這個間隔最大化是被嚴格要求的,不允許任何例外的樣本點跨過間隔邊界,因此這種方法是不適...
支持向量機(SVM,Support Vecor Machine)是一種二分類算法,在集成學習和深度學習火起來之前支持向量機的使用非常廣泛,其分類效果好、適用性廣(線性、非線性...
在之前的文章中我們已經講過了邏輯回歸分類器,現在趁熱打鐵總結一下與邏輯回歸非常相似的感知機模型。感知機模型是一個非常古老的分類算法,現在很少會單獨使用它,但是它的原理簡單有效...
根據上一篇廣義線性模型(4)邏輯回歸我們已經知道,邏輯回歸是一種處理二分類問題的常用方法,當需要處理多分類問題是,除了邏輯回歸的組合模型之外,我們還可以選擇使用Softmax...
1 原理 1.1 概述 邏輯回歸(LR,Logistic Regression)是一個很常用也很好用的分類算法,是的,雖然名字叫回歸,但它其實是一個分類算法,所謂分類問題就是...
1 Ridge回歸和Lasso回歸概述 在機器學習中,如果特征很多,但是訓練數據量不夠大的情況下,學習器很容易把特有的一些特點也當做是整個樣本空間的一般性質進行學習,這就會出...
1 原理 1.1 概述 回歸問題:回歸屬于統計學,回歸分析(regression analysis)指的是確定兩種或兩種以上變量間相互依賴的定量關系的一種統計分析方法。按照機...
本文旨在將一些線性模型統一放在廣義線性模型的體系下,從而更好的理解這些模型之間的聯系和區別,屬于總結和復習,最好對線性回歸、邏輯回歸稍微有所了解,不過后面幾篇也是會復習到這些...