SPSS中Logistic(或COX)回歸自變量篩選方法

SPSS提供了6中篩選自變量的方法,向前法(Forward)有三種,即一般統計學書上所說的逐步回歸,這三種向前法選入自變量時均采用比分檢驗,但剔除自變量的標準不同。分別為:條件參數估計似然比檢驗(向前:條件)、最大偏似然估計的似然比檢驗(向前:LR)、Wald卡方檢驗(向前:Wald)。向后法(Backward)也有三種,分別采用上述3種方法之一進行變量的剔除。

篩選自變量的方法:

  • 條件參數估計似然比檢驗(向前:條件)
  • 最大偏似然估計的似然比檢驗(向前:LR)
  • Wald卡方檢驗(向前:Wald)
  • 條件參數估計似然比檢驗(向后:條件)
  • 最大偏似然估計的似然比檢驗(向后:LR)
  • Wald卡方檢驗(向后:Wald)

值得注意的地方:

(1)基于條件參數估計和最大偏似然估計的篩選方法都比較可靠,尤以后者為佳。但基于Walds統計量的檢驗則不然,它實際上未考慮各因素的綜合作用,當因素間存在共線性時,結果不可靠,故應當慎用。參數的可信區間也是基于Walds統計量計算的,故也慎用。

(2)還需要注意的是,逐步回歸所獲得的結果是保證此時獲得的模型最大似然函數值最大,但并不能保證此時的模型其預測精度最高。最終模型的選擇仍需要獲得專業理論的支持。

(3)事實上,在統計之上,另一個更重要的準則是專業意義,比如種族、吸煙在統計學上沒有意義,但如果在專業上認為種族、吸煙確實有作用,也可以將其強行納入模型。也就是說,判斷一個變量是否可納入模型的標準由弱至強依次應當是:單自變量分析、多自變量分析、專業判斷。

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容