反向傳播(英語:Backpropagation,縮寫為BP)是“誤差反向傳播”的簡稱,是一種與最優化方法(如梯度下降法)結合使用的,用來訓練人工神經網絡的常見方法。該方法對網...

反向傳播(英語:Backpropagation,縮寫為BP)是“誤差反向傳播”的簡稱,是一種與最優化方法(如梯度下降法)結合使用的,用來訓練人工神經網絡的常見方法。該方法對網...
Bagging流派的機器學習, 其學習器之間沒有沒有依賴關系, 這意味著可以并行計算, Bagging的弱學習器之間沒有boosting那樣的聯系, 它的特點在于隨機采樣, ...
GBDT也是集成學習Boosting家族的成員,但是卻和傳統的Adaboost有很大的不同。回顧下Adaboost,我們是利用前一輪迭代弱學習器的誤差率來更新訓練集的權重,這...
我們知道boost系列是強依賴關系, 有這個依賴, 各個學習器之間還有這些問題沒有解決: 如何計算學習的誤差率 如何得到弱學習器的權重 如何更新樣本權重? 使用何種結合策略?...
集成學習(ensemble learning)本身不是一個單獨的機器學習算法,而是通過構建并結合多個機器學習器來完成學習任務。也就是我們常說的“博采眾長”。集成學習可以用于分...
決策樹算法的有點 簡單, 直觀, 可解釋性強, 建樹容易 不需要預處理, 歸一化, 以及處理缺失值 離散值, 連續值, 及其混合都可以處理 能夠多分類 缺點 容易過擬合, 泛...
分治算法的基本思想是將一個規模為N的問題分解為K個規模較小的子問題,這些子問題相互獨立且與原問題性質相同。求出子問題的解,就可得到原問題的解。即一種分目標完成程序算法,簡單問...
在ID3算法中我們使用了信息增益來選擇特征,信息增益大的優先選擇。在C4.5算法中,采用了信息增益比來選擇特征,以減少信息增益容易選擇特征值多的特征的問題。但是無論是ID3還...
ID3算法存在的不足, 在C4.5里面有了改進 不能處理連續特征的問題C4.5的思路是將連續特征離散化. 比如m個樣本, 特征A有m個連續的值, 取兩個樣本值的中位數,這樣一...
基于信息增益(Information Gain)的ID3算法 ID3算法的核心是在各個結點上應用信息增益準則來進行特征選擇,以此遞歸的構建決策樹,具體方法是:從根結點開始,對...
這類問題一般給一個矩陣,要求矩陣內滿足條件的一些元素。這類問題的一般做法是:先遍歷整個矩陣,并找到要DFS的位置/元素, 把他們push入棧,然后對棧內元素進行DFS。當然,...
遞歸需要消耗額外的資源,這些資源是:1.遞歸由于是函數調用自身,而函數調用是有時間和空間的消耗的:每一次函數調用,都需要在內存棧中分配空間以保存參數、返回地址以及臨時變量,而...
遞歸是實現DFS策略的經常性手段 Path Sum II Given a binary tree and a sum, find all root-to-leaf paths...
DFS一般的流程是這樣的:從一個點出發,遍歷其中一個鄰居節點w, 然后接著遍歷w的一個鄰居節點,當遍歷到最后一個節點之后,回退回上一個已經被遍歷過的節點,接著遍歷這個節點的未...
Network Delay Time There are N network nodes, labelled 1 to N. Given times, a list of t...
All Nodes Distance K in Binary Tree We are given a binary tree (with root node root), a...
1. N-ary Tree Level Order Traversal Given an n-ary tree, return the level order travers...
廣度優先搜索類似二叉樹的層次遍歷,它的基本思想是:首先訪問頂點v,接著由v出發,依次訪問v的鄰接節點w1,w2,.然后再依次訪問w1,w2..的鄰接節點。BFS不像DFS那樣...