總結(jié)這幾天的教訓(xùn)——“好記性不如爛筆頭”,像我這種記憶力堪比金魚的腦子,相當(dāng)適用。
最近就是遇到問題現(xiàn)去百度,解決了也就丟了,導(dǎo)致遇到一次去百度一次,解決一次忘一次,總之留了個(gè)印象,具體代碼怎么寫,老記不住,畢竟一會(huì)兒有時(shí)候在eclipse上寫代碼,一會(huì)兒為了方便分析處理數(shù)據(jù)又在Jupyter notebook上寫,文件命名也隨性,反正亂七八糟,效率極低,所以有了開頭。
記下遇到的問題和解決方案,方便自己回顧(降低檢索成本),利己利人。
時(shí)間緊,任務(wù)中,先粗略寫一丟丟,有時(shí)間了再細(xì)細(xì)整理。
一、有關(guān)pandas
1、分組聚合:http://www.cnblogs.com/zephyr-1/p/5874678.html
2、去重函數(shù):http://blog.csdn.net/xinxing__8185/article/details/48022401
3、缺失值定位:http://blog.csdn.net/u012387178/article/details/52571725
二、有關(guān)Python計(jì)量包stats models
statsmodels模塊簡(jiǎn)介:http://jingyan.baidu.com/article/3d69c5518fd2e2f0cf02d73a.html
import numpy as np
import statsmodels.api as sm
[1]Linear Regression Model
lrm_data =sm.datasets.spector.load()
lrm_data.exog=sm.add_constant(lrm_data.exog,prepend=False)
lrm_model = sm.OLS(lrm_data.endog,lrm_data.exog)
res = lrm_model.fit()
print(res.summary())
[2]Generalized Linear Model:主要用于各種設(shè)計(jì)的方差分析
data = sm.datasets.scotland.load()
data.exog = sm.add_constant(data.exog)
gamma_model = sm.GLM(data.endog,data.exog,family=sm.families.Gamma())
results = gamma_model.fit()
[3]Robust Linear model
data = sm.datasets.stackloss.load()
data.exog = sm.add_constant(data.exog)
rlm = sm.RLM(data.endog,data.exog,M=sm.robust.norms.HuberT())
res =rlm.fit()
print(res.params)
[4]Discrete Chioce Model:離散選擇模型,Logit模型屬于離散選擇模型,主要用于微觀計(jì)量經(jīng)濟(jì)學(xué)范疇
data = sm.datasets.spector.load()
data.exog = sm.add_constant(data.exog)
logit = sm.Logit(data.endog,data.exog)
res = logit.fit()
print(res.summary())