-
分類
-
訓練數據集
-
檢驗
-
如何檢測行人在哪里
-
檢測問題轉化為分類問題
-
邏輯回歸分類器
-
Softmax函數
-
數值大小對Softmax函數預測結果的影響
-
一位有效編碼
-
交叉熵方法計算預測值與實際值的距離
-
Logistic多項式回歸法
-
如何確定W,b:使正確分類距離小,錯誤分類距離大
-
罰函數
-
將機器學習問題轉化為數值優化問題
-
梯度下降法
-
尋找最優解方法的好壞
-
標準化處理圖片像素的基礎數據
-
尋找好的初始化值:均值為0,標準差為sigma的高斯分布中隨機抽樣,sigma決定了初始點輸出的數量級,sigma越大越武斷,越小越謹慎,訓練時先小后大比較合適
-
訓練分類器的方法
-
不斷使損失函數越來越小
-
隨機梯度下降
-
保存梯度的移動平均,代替一批數據的方向
-
學習率衰減(接近目標的時候,步子要足夠小)
-
模型的訓練速度越快,并不一定越好
-
線性模型需要訓練的參數過多
-
線性模型的局限性
-
線性模型的定義
-
線性模型的運算非常穩定
-
線性函數的導數為常量
-
無論你神經網絡有多少層,輸出都是輸入的線性組合,與只有一個隱藏層效果相當,如何得到非線性函數
-
修正線性單元ReLU
-
簡單的神經網絡
-
反向傳播法,比起正向傳播,要花費2倍的運算與存儲空間
-
為模型增加更深的層次,使得模型效果更好
-
通過讓網絡變深的方式,可以讓模型參數變少,表現變好
-
更深的模型,往往會出現層次化的結構
-
防止過擬合的方法:早停
-
防止過擬合的方法:正則化
-
L2正則化:核心:在罰函數中加入額外一項,削減大權重的影響,但這樣就不可避免的引入了新參數需要調試
-
丟棄法
機器學習
最后編輯于 :
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
推薦閱讀更多精彩內容
- 機器學習是做NLP和計算機視覺這類應用算法的基礎,雖然現在深度學習模型大行其道,但是懂一些傳統算法的原理和它們之間...
- A 準確率(accuracy) 分類模型預測準確的比例。在多類別分類中,準確率定義如下: 在二分類中,準確率定義為...
- 谷歌開發者機器學習詞匯表:縱覽機器學習基本詞匯與概念 姓名:鐘航 轉載自:http://mp.weixin.qq....
- 注:題中所指的『機器學習』不包括『深度學習』。本篇文章以理論推導為主,不涉及代碼實現。 前些日子定下了未來三年左右...