邏輯回歸

鏈接:
1. 線性回歸總結
2. 正則化
3. 邏輯回歸
4. Boosting
5. Adaboost算法


線性回歸是通過擬合來達到目的,而邏輯回歸呢側重的是探尋概率,它不去尋找擬合的超平面,而是去尋找某個數據的類別歸屬問題。

一. 預測函數

Sigmoid函數

怎么去預測?我們知道Sigmoid函數是如上這樣的,它的表現是:將數據歸納在0-1之間,那么我們能不能通過去計算出的結果去擬合這樣一個概率,使之成為一種分類的依據?答案是肯定的。凡事的概率都在0和1之間,擬合了概率,就是擬合了判定條件。


Paste_Image.png

二. 具體做法

我們知道線性回歸是這樣子的:



將Sigmoid函數加載到這個結果上,不就是將結果0-1概率化了么:


邏輯回歸表達式

所以是這樣子的:
回歸對比

三. 損失函數

這樣一來針對已有數據那就是0/1問題,要么概率為1的數據,要么概率為0的數據:

樣本評判

對于我們來說概率可以簡寫合并成:



取其似然函數:



我們要做的是在最大似然估計就是求使 L(θ )取最大值時的θ
對數函數

這里可以自己做主,我選用下面作為損失函數,要是最大似然估計最大,就要使J(θ)函數最小,通過不斷的優化θ使得J函數最小,進而L函數概率最大,完成任務。


損失函數

四. 求解過程

1. 梯度下降法:###

迭代函數
具體求解

2. 矩陣法:###

求解過程
最終公式

通過依次求解A,E, θ得到最終解。(A為線性回歸的θ*X)

參考:
邏輯回歸
邏輯回歸模型(Logistic Regression, LR)基礎 - 文賽平
機器學習—邏輯回歸理論簡介

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容