最近擠出時(shí)間,用python在kaggle上試了幾個project,有點(diǎn)體會,記錄下。 Step1: Exploratory Data Analysis EDA,也就是對數(shù)據(jù)...

IP屬地:北京
最近擠出時(shí)間,用python在kaggle上試了幾個project,有點(diǎn)體會,記錄下。 Step1: Exploratory Data Analysis EDA,也就是對數(shù)據(jù)...
以下這些能否給個有效性排序?
如果某個特征有好幾萬個取值,那么用dummy variable就并不現(xiàn)實(shí)了,這時(shí)候可以用Count-Based Learning.
(更新)近期在kaggle成功的案例中發(fā)現(xiàn),對于類別特征,在模型中加入tf-idf總是有效果的。
還有個方法叫“Leave-one-out” encoding,也可以處理類別特征種類過多的問題,實(shí)測效果不錯。
此外,還有一種方法是可以參考文章
“A preprocessing Scheme for High-Cardinality Categorical Attributes in Classification and Prediction Problems”
文/JxKing(簡書作者)
原文鏈接:http://www.lxweimin.com/p/32def2294ae6
著作權(quán)歸作者所有,轉(zhuǎn)載請聯(lián)系作者獲得授權(quán),并標(biāo)注“簡書作者”。
用python參加Kaggle的些許經(jīng)驗(yàn)總結(jié)最近擠出時(shí)間,用python在kaggle上試了幾個project,有點(diǎn)體會,記錄下。 Step1: Exploratory Data Analysis EDA,也就是對數(shù)據(jù)...