哪幾個部分?
一階模型融合,線性模型樹模型
二階模型融合,F(xiàn)M
高階模型融合,Wide and Deep
1 線性模型和樹模型
講了什么?
GBDT + LR融合
為什么融合?
分為挖掘,召回,排序
挖掘:內(nèi)容分析,用戶分析,建好索引
融合是一種提升思想
GBDT + LR
- LR
特征:量化方式兩種,實數(shù)或者布爾值;字段轉(zhuǎn)特征方法有One-hot,特征分段,特征變換(連續(xù)值變換到0-1或者做離散化)
特征工程:構(gòu)建高階特征組合
權(quán)重:一是損失函數(shù)的最小化,還要加上正則化,需要看方差足夠小的模型,防止過擬合
權(quán)重學習:除了要作出方差小偏差小的模型,在工程上也要一是越多權(quán)重為0越好,減少計算復(fù)雜度,并且方差會比較小;二是希望能夠在線學習這些權(quán)重,隨機梯度下降收斂慢,谷歌有一套FTRL算法 - GBDT
決策樹:RF和GBDT
GBDT:生成一棵樹,損失函數(shù)為誤差平方和,產(chǎn)生殘差,后面的樹來根據(jù)上一個殘差擬合新的樹,直到滿足條件為止,使用的時候把預(yù)測結(jié)果相加
GBDT用于分類:把損失函數(shù)變?yōu)閷?shù)損失函數(shù);為了防止過擬合損失函數(shù)匯總需要加入正則項:總共樹的個數(shù),樹的深度,葉子節(jié)點的權(quán)重大小;遇到實數(shù)值的特征需要分裂成若干區(qū)間,可以參考XGBoost計算分裂點收益,也可以參考決策樹所用的信息增益 - 兩者結(jié)合
GBDT產(chǎn)生N個樹,每個樹有M個葉節(jié)點,M個維度,一個樹對應(yīng)一個one-hot變量,樣本來了產(chǎn)生N個one-hot向量,然后N個one-hot向量傳入LR
2 FM
特征組合
暴力特征組合二階笛卡爾乘積問題:
特征維度太多,或者無效,樣本非常稀疏,不能找到符合組合特征的樣本,也就沒有辦法為這個組合訓(xùn)練有效的參數(shù)
詳解
用隱因子的向量點積替代原來兩兩組合的部分
計算復(fù)雜度由O(kn^2) 降到O(kn)
可以一網(wǎng)打進其他模型,如SVD(只留下用戶ID和電影ID),SVD++(加入歷史評過分的),time-SVD(加上時間信息的SVD)
擴展FFM
3 Wide & Deep
wide更多是一種記憶模型,deep泛化能力比較強
wide包括線性和交叉特征
deep主要是embedding+連續(xù)特征
數(shù)據(jù)去異常,歸一化