制作軟件幕布,可生成清晰的思維度導(dǎo)圖
了解幕布
注冊連接:幕布是一款結(jié)構(gòu)化思維生產(chǎn)力工具
如果大家喜歡的話麻煩從我的這個(gè)連接注冊,這樣我就可以使用高級會員功能了,,,謝謝啦
建議直接看思維導(dǎo)圖,如果圖片不清晰可點(diǎn)擊查看原圖(屏幕中間下方)。
文章列表
圖解神經(jīng)網(wǎng)絡(luò)之--1.0 感知器(Perceptron)
圖解神經(jīng)網(wǎng)絡(luò)之--2.0 線性單元(Linear Regression)
線性單元以及梯度下降
下面是幕布標(biāo)簽內(nèi)容
線性單元的概念:在面對一個(gè)數(shù)據(jù)集不是線性可分的時(shí)候,使用感知器規(guī)則 可能無法進(jìn)行收斂,無法訓(xùn)練成一個(gè)感知器的問題時(shí),我們用一個(gè)可倒的線性函數(shù)來替換感知器的跳躍函數(shù),這樣的感知器就叫做線性單元,線性單元在面對線性不可分的數(shù)據(jù)集時(shí),會收斂到一個(gè)最佳的近似值上。
圖示:
輸出:更改激活函數(shù)之后線性單元返回的是一個(gè)實(shí)數(shù)值而不是0,1分類,因此線性單元用來解決的是回歸問題而不是分類問題。
線性模型:當(dāng)我們說模型時(shí),我們實(shí)際上在談?wù)摳鶕?jù)輸入X 預(yù)測輸出Y的算法
輸出Y 就是輸入x1-x4的線性組合。
線性單元的目標(biāo)函數(shù)和梯度下降優(yōu)化:目標(biāo)函數(shù)預(yù)測值和標(biāo)簽的近似程度 e是單個(gè)樣本的誤差。(一般用的是差的平方的二分之一,乘二分之一是為了之后求導(dǎo)好算)對于一個(gè)訓(xùn)練數(shù)據(jù)集來說,誤差越小就說明模型越好,由此可見,模型的訓(xùn)練,實(shí)際上就是求取到合適的w。則需要使用下面的優(yōu)化算法優(yōu)化我們的目標(biāo)函數(shù)(E(W))
批梯度下降(Batch Gradient Descent)優(yōu)化優(yōu)化的目的:通過梯度下降對得到的目標(biāo)函數(shù) (E(W))進(jìn)行優(yōu)化找到最合適的w
梯度概念:梯度是一個(gè)向量,它指向函數(shù)值上升最快的方向。
方法:我們通過梯度的反方向去修改x的值,在找到極值點(diǎn)。
推倒過程推倒目的:
隨機(jī)梯度下降算法(Stochastic Gradient Descent, SGD)概念:如果樣本數(shù)目非常大,那么采用批梯度下降計(jì)算量將會異常巨大,在SGD中,每次w的迭代只計(jì)算一個(gè)樣本,這樣更新效率就會大大提高