
前面干貨,后面廢話。 1. 百度 2個(gè)有序數(shù)組取中位數(shù)https://leetcode.com/problems/median-of-two-s...
簡單看一下(點(diǎn)擊看大圖)四大類解決方案 分類 回歸 聚類 降維 預(yù)測結(jié)果是一個(gè)類別,且現(xiàn)在有已標(biāo)記數(shù)據(jù)的情況 對(duì)于大量數(shù)據(jù) (10w+),在線學(xué)...
1. 分類問題評(píng)價(jià)指標(biāo) 1-1. 精確率與召回率 精確率(Precision)指的是模型判為正的所有樣本中有多少是真正的正樣本;召回率(Reca...
屬性選擇 屬性的感覺就是最大限度的增加樣本的純度,并且不要產(chǎn)生產(chǎn)生樣本數(shù)少的分枝。 屬性選擇標(biāo)準(zhǔn)有信息增益(Information Gain)和...
不是每個(gè)樣本點(diǎn)都有松弛因子,只有離群的樣本才有懲罰因子 首先隨機(jī)生成一些數(shù)據(jù) 選用線性SVM分類器并進(jìn)行數(shù)據(jù) 用支持點(diǎn)和w繪出分類超平面 研究參...
存在意義 監(jiān)督學(xué)習(xí)的2個(gè)主題就是 最小化誤差:模型擬合數(shù)據(jù) 規(guī)則化參數(shù):防止過擬合 為了使模型簡單,所以需要規(guī)則化在保持模型單的情況下,使誤差最...
問題描述(以二維為例) 最后得到的式子就是線性可分SVM最后的優(yōu)化公式
決策樹應(yīng)該有的樣子 從根節(jié)點(diǎn)開始,以信息增益最大的特征作為節(jié)點(diǎn)進(jìn)行數(shù)據(jù)集分割,重復(fù)這個(gè)過程直到子節(jié)點(diǎn)都是一個(gè)類別的。過多的子節(jié)點(diǎn)會(huì)導(dǎo)致過擬合現(xiàn)象...
用于分類非線性分類問題 將線性不可分的數(shù)據(jù)通過一個(gè)映射函數(shù),映射到一個(gè)高維的空間,使數(shù)據(jù)線性可分 上圖的映射就是將二維數(shù)據(jù)集映射到了一個(gè)三維的空...