神經(jīng)網(wǎng)絡(luò)(二)

1.幾個標(biāo)記方法:

m組訓(xùn)練數(shù)據(jù)

神經(jīng)網(wǎng)絡(luò)總的層數(shù)L;

第l層的單元數(shù)Sl(不包括偏差單元);
輸出層的單元數(shù)K。
①對于兩類分類問題
y=0或1,只有一個輸出單元,hΘ(x)∈R,故SL=1,即K=1。
②對于多類分類問題
y是一個向量,y∈RK,hΘ(x)∈RK,SL=K(K?3)。
2.邏輯回歸的代價函數(shù)



3.神經(jīng)網(wǎng)絡(luò)的代價函數(shù)(多類分類問題)

該式子的含義(個人現(xiàn)階段理解),共有k個分類,所以對于每一行數(shù)據(jù),h(x(i))是一個k維的向量(有個輸出結(jié)果),Σk 即將每一個結(jié)果的代價求和,再將m行數(shù)據(jù)的代價求和,得出總的代價。正則化的式子:每一層有l(wèi)個單元,對應(yīng)每層的theta是一個S(l+1)*S(L)的矩陣
4.反向傳播算法

先通過一個例子來看:



即前向傳播是通過ai求得zi+1,反向傳播是通過δi+1求得δi,系數(shù)都是Θij,其中j是前一層對應(yīng)的單元,i是后一層對應(yīng)的單元
代價函數(shù):
image.png

誤差計算方法:


而代價函數(shù)的偏導(dǎo)數(shù)為

算法:
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

推薦閱讀更多精彩內(nèi)容

  • 繼續(xù)發(fā)公式。有興趣閱讀能正常顯示公式的版本請移步 http://blog.kamidox.com/neural-n...
    kamidox閱讀 860評論 1 2
  • 引言 機器學(xué)習(xí)欄目記錄我在學(xué)習(xí)Machine Learning過程的一些心得筆記,涵蓋線性回歸、邏輯回歸、Soft...
    hfk閱讀 4,404評論 4 18
  • 代價函數(shù)(Cost Function) 在神經(jīng)網(wǎng)絡(luò)模型中,我們引入一些新的標(biāo)記: L:表示神經(jīng)網(wǎng)絡(luò)模型的層數(shù); S...
    SmallRookie閱讀 502評論 0 0
  • 1. 今天很開心的一件事,我明白到我一直都是太在乎別人的想法,不管是好是壞,只要可能涉及到我,我總是會因之?dāng)_神。 ...
    鮑魚不吃辣閱讀 224評論 0 0
  • 上周日在簡書中,看到一篇凄美的文章《我和首航空少不得不說的過往》,講述了一個可愛女孩子,如何讓首航空少愛上她而不自...
    小歸ing閱讀 593評論 0 2