張量 也叫Tensor這里只寫出輸出格式眾所周知,張量里面保存的3個屬性 名字 維度 類型類型和名字好說,一個描述的是處理的數據類型,一個描述的是這個張量來源的操作以及來自哪...

張量 也叫Tensor這里只寫出輸出格式眾所周知,張量里面保存的3個屬性 名字 維度 類型類型和名字好說,一個描述的是處理的數據類型,一個描述的是這個張量來源的操作以及來自哪...
tf.clip_by_value函數可以限制log運算時不會出現log0這類的數出現 矩陣乘法tf.matmul,直接使用*是元素間相乘 根據交叉熵的公式,應該將每行中的 m...
深度學習中經常不提及方差和偏差的均衡一般通過對驗證集和測試集的誤差多少來判斷方差和偏差例如,如果訓練集是1%二測試集是11%很明顯這是過擬合了,屬于高方差。如果訓練15% 測...
我們知道,CPU 資源是有限的,任務的處理速度與線程個數并不是線性正相關。相反,過多的線程反而會導致 CPU 頻繁切換,處理性能下降。所以,線程池的大小一般都是綜合考慮要處理...
后進者先出,先進者后出,這就是典型的“?!苯Y構。 從棧的操作特性上來看,棧是一種“操作受限”的線性表,只允許在一端插入和刪除數據。與數組和鏈表來比,這兩者暴露了太多的操作接口...
一階方法:梯度下降、隨機梯度下降、mini 隨機梯度下降降法。 隨機梯度下降不但速度上比原始梯度下降要快,局部最優化問題時可以一定程度上抑制局部最優解的發生。首先要明確一個事...
dot 同線性代數中矩陣乘法的定義: np.dot()np.dot(A, B):對于二維矩陣,計算真正意義上的矩陣乘積,同線性代數中矩陣乘法的定義。對于一維矩陣,計算兩者的內...
如果你使用一個簡單的邏輯回歸,那么進行隨機初始化,或者直接吧所有的權重矩陣置為0那是沒有問題的。但是對于神經網絡來說,如果都置為0那么將是不能接受的。這是因為,如果你的w全是...
為什么要使用激活函數?目前只介紹了sigmoid函數。下面多介紹幾個激活函數。 sigmoid 現在已經不使用,除非在輸出層進行0~1的概率輸出時使用 tanh 幾乎在任何場...
本來可以用tab來進行補全,但是這個東西跟在vim環境下編程一樣,得用快捷鍵很麻煩。沒有pycharm那么補全的方便。下面放上方法主要是用conda來安裝(我覺得直接安裝一個...
對于神經網絡的計算我們通常使用向量化計算。一般來說,把input層當作第0層,隱層和輸出層作為真正的層。對于縱向排列的神經元,我們把它看作為一個列向量,一般4*3的矩陣,4就...
向量化是消除代碼中顯示的for循環語句的藝術兩種寫法的代碼 正向傳播 一些小的建議 使用numpy的時候,不要使用np.random.rand(5)這種生成秩為1 的數組,因...
任何神經網絡都有一個向前計算和向后計算的過程。簡而言之,利用一般的編程角度其實就是計算的過程,精簡到每一次加法減法。 羅輯回歸的梯度下降 首先回顧一下邏輯回歸的基本公式 m個...
回顧成本函數J和預測的y hat 注意這里的J被定義為1/m的損失函數之和 目前的任務是找到w和b最小化J(w,b) 使用一個一緯的w可以比較容易的畫出上圖主要分為2個部分,...