(BP進階2)學習和實現BP神經網絡

上午說到了BP神經網絡,現在就把神經網絡的具體實現做一下簡單的解析。
BP的實現原理可以參考這里:http://blog.csdn.net/u013007900/article/details/50118945
在上次的講解中,我們說到了

可以假設,

那么

yj表示神經元j的輸出,函數f稱為激活函數 ( Activation Function )或轉移函數 ( Transfer Function ) ,net'j(t)稱為凈激活(net activation)。 若將閾值看成是神經元j的一個輸入x0的權重w0j,則上面的式子可以簡化為:

接下來開始利用該式子簡要論述BP實現的原理:

我們假設一個ANN的拓撲結構是比較常見的三層拓撲

可以看出,該拓撲結構只包含一個輸入層,一個輸出層,一個隱藏層,可以假設輸入層的權值數是Wjk,隱藏層的權值數是Vij,dk為預期的輸出值,Ok是實際經計算得出的輸出值,當實際計算值與預期期望值不同時,存在誤差E,定義如下:

將以上誤差定義式展開至隱層,有

進一步展開至輸入層,有

由上式可以看出,網絡輸入誤差是各層權值ωjκ、υij的函數,因此調整權值可改變誤差 E。 顯然,調整權值的原則是使誤差不斷減小,因此應使權值與誤差的梯度下降成正比。
故訓練一個BP神經網絡,實際上就是調整網絡的權重和偏置這兩個參數,BP神經網絡的訓練過程分兩部分:
前向傳輸,逐層波浪式的傳遞輸出值;
逆向反饋,反向逐層調整權重和偏置;

到此,我們已經大致明白了神經網絡的訓練過程,但是怎么進行訓練的實現和網絡的使用呢?
在我看來,代碼實現的關鍵步驟只有3步:
1.創建網絡(create函數)
2.訓練網絡(train函數)
3.實現網絡(predict函數)

當然,一個網絡訓練好后可以將其保存為xml文件,下次再次使用時只需要讀取該xml文件就可以得到上次訓練過的神經網絡了,因此,又可以分為兩步:
1)網絡的創建:
1.創建網絡(create函數)
2.訓練網絡(train函數)
3.保存網絡(save函數)
2)網絡使用
1.讀取網絡(load函數)
2.實現網絡(predict函數)
當然,如果不想保存該網絡的話也可以訓練好直接使用的。

實現網絡的訓練首先需要準備好兩組數據,分別是:樣本數組和樣本標記數組,拿上次的兩個數相與的例子來說,樣本數組即為:{{0,0},{0,1},{1,0},{1,1}},而樣本標記數組則是每個樣本的結果分類,共有4組數據,每組數據的結果都有2種可能,四組數據的輸出結果是0,0,0,1,那么,標記樣本數組則可以初始化為: { {1,0}, {1,0}, {1,0}, {0,1} }需要注意的是,兩個樣本都是由Mat類型儲存,且數據類型都定義為CV_32FC1。

因此如果需要就該題進行BP神經系統的訓練,可以初始化樣本數組和標記數組如下:

float labels[4][2] = { {1,0}, {1,0}, {1,0}, {0,1} };
Mat labelsMat(4,2, CV_32FC1, labels);
float trainingData[4][2] = { { 0, 0 }, { 0, 1 }, { 1, 0 }, { 1, 1 } };
Mat trainingDataMat(4, 2, CV_32FC1, trainingData);

在理解了以上講解,那么進行神經網絡的搭建也就簡單得多了,我們還拿這個簡單的例子來進行分析:

創建神經網絡

首先,這組數據的每組輸入數據有兩組,故輸入層的感知器有兩個,輸出的數組每組也有兩個,故輸出層感知器個數為2,隱藏層一般情況下都有一到兩個,但是在本題中由于不需要隱藏層就可以解決,故無需用到隱藏層,所以該ANN共有兩層:輸入層(兩個感知器)和輸出層(兩個感知器),(但是按照邏輯來講,建立隱藏層以后仍舊是可以得到想要的答案的)創建神經網絡的函數可以寫為:

CvANN_MLP bp;
Mat layerSizes = (Mat_<int>(1, 2) <<2,2); 
bp.create(layerSizes, CvANN_MLP::SIGMOID_SYM);

CvANN_MLP::SIGMOID_SYM :選用sigmoid作為激勵函數,即上次所說的S形函數(包括單極性S形函數和雙極性S形函數)
除此之外,BP所使用的激勵函數還有:
CvANN_MLP::GAUSSIAN:GAUSS函數
CvANN_MLP::IDENTITY:階躍函數。

訓練神經網絡

在進行神經網絡的訓練時,我們就需要用到實現進行初始化好的樣本數組和標記數組了,為了方便在圖像中顯示,我們將樣本數組:{{0,0},{0,1},{1,0},{1,1}},進行擴大:{ { 50, 50 }, { 50, 100 }, { 100, 50 }, { 100, 100 } },擴大后直接調用訓練函數:

bp.train(trainingDataMat, labelsMat, Mat(), Mat(), params); 

關于train函數的參數:

int CvANN_MLP::train(constMat& inputs, constMat& outputs, 
constMat& sampleWeights, constMat& sampleIdx=Mat(), 
CvANN_MLP_TrainParams params=CvANN_MLP_TrainParams(), intflags=0 );```
1) inputs:輸入矩陣。它存儲了所有訓練樣本的特征。假設所有樣本總數為nSamples,而我們提取的特征維數為ndims,
則inputs是一個nSamples?ndims的矩陣,每個樣本的特征占一行。
2) outputs:輸出矩陣。我們實際在訓練中,我們知道每個樣本所屬的種類,假設一共有nClass類。那么我們將outputs設置為
一個nSample*nClass列的矩陣,每一行表示一個樣本的預期輸出結果,該樣本所屬的那類對應的列設置為1,其他都為0。
比如我們需要識別0-9這10個數字,則總的類數為10類,那么樣本數字“3”的預期輸出為[0,0,1,0,0,0,0,0,0,0];
3) sampleWeights:一個在使用RPROP方法訓練時才需要的數據,如果使用的是BACKPROP方法則不設置,直接設置為Mat()即可。
4) sampleIdx:相當于一個遮罩,它指定哪些行的數據參與訓練。如果設置為Mat(),則所有行都參與。
5) params:這個在剛才已經說過了,是訓練相關的參數。
其中,params是CvANN_MLP_TrainParams類型的參數,是經過初始化的,訓練相關的參數

CvANN_MLP_TrainParams params;  
params.train_method=CvANN_MLP_TrainParams::BACKPROP;  
params.bp_dw_scale=0.1;  
params.bp_moment_scale=0.1;  
//params.train_method=CvANN_MLP_TrainParams::RPROP;  
//params.rp_dw0 = 0.1;   
//params.rp_dw_plus = 1.2;   
//params.rp_dw_minus = 0.5;  
//params.rp_dw_min = FLT_EPSILON;   
//params.rp_dw_max = 50.;  
以上是其初始化參數方法,可以看出,共有兩種初始化方法,其中BACKPROP有兩個初始化參數,RPROP有五個初始化參數, BACKPROP表示使用back-propagation的訓練方法,RPROP即最簡單的propagation訓練方法。Opencv的神經網絡實現了MLP算法,具體為BACKPROP算法和RPROP算法兩種,BACKPROP算法使用的是在線方法,RPROP算法使用的是批量方法。

在這里我們使用第一種,即BACKPROP方法。
#保存和加載神經網絡
到此神經網絡已經搭建完成了,我們可以選擇

bp.save("name.xml");

保存神經網絡,保存后直接退出或者是繼續使用該網絡,但是保存后下次使用該神經網絡就不必再訓練了,只需要使用函數:

bp.load("name.xml");

即可。
#使用神經網絡
圖像進行特征提取,把它保存在sampleMat里,通過調用predict函數,我們得到一個輸出向量,它是一個1*nClass的行向量,(nClass是可能出現的結果種類數目)

其中每一列說明它與該類的相似程度(0-1之間),也可以說是置信度。我們只用對output求一個最大值,就可得到結果。
這個函數的返回值是一個無用的float值,可以忽略。
在本例子中,由于輸入層的感知器數目為2,是圖像的坐標,那么,在圖像的每一個坐標都去進行分類,得到的是 輸出層感知器數目的個數個輸出矩陣,每個數代表該種結果的符合率
如:將一個坐標 帶入后p[0]==0.1,p[1]==0.5,那么,取擬合率較大的,訓練結果是1。

for (int i = 0; i < image.rows; ++i){
for (int j = 0; j < image.cols; ++j){
Mat sampleMat = (Mat_<float>(1, 2) << i, j);
Mat responseMat;
bp.predict(sampleMat, responseMat);
float* p = responseMat.ptr<float>(0);
if (p[0] > p[1]){
image.at<Vec3b>(i,j) = green;
}
else{
image.at<Vec3b>(i,j) = blue;
}
}
}

把所有代碼總結起來:

include <opencv2/core/core.hpp>

include <opencv2/highgui/highgui.hpp>

include <opencv2/ml/ml.hpp>

include <iostream>

include <string>

using namespace std;
using namespace cv;
int main()
{
CvANN_MLP bp;
CvANN_MLP_TrainParams params;
params.train_method = CvANN_MLP_TrainParams::BACKPROP;
params.bp_dw_scale = 0.1;
params.bp_moment_scale = 0.1;
float labels[4][2] = { {1,0}, {1,0}, {1,0}, {0,1} };
Mat labelsMat(4,2, CV_32FC1, labels);
float trainingData[4][2] = { { 50, 50 }, { 50, 100 }, { 100, 50 }, { 100, 100 } };
Mat trainingDataMat(4, 2, CV_32FC1, trainingData);
Mat layerSizes = (Mat_<int>(1, 2) <<2,2);
bp.create(layerSizes, CvANN_MLP::SIGMOID_SYM);
bp.train(trainingDataMat, labelsMat, Mat(), Mat(), params);
int width = 150, height =150;
Mat image = Mat::zeros(height, width, CV_8UC3);
Vec3b green(0, 255, 0), blue(255, 0, 0);
// Show the decision regions
for (int i = 0; i < image.rows; ++i){
for (int j = 0; j < image.cols; ++j){
Mat sampleMat = (Mat_<float>(1, 2) << i, j);
Mat responseMat;
bp.predict(sampleMat, responseMat);
float* p = responseMat.ptr<float>(0);
if (p[0] > p[1]){
image.at<Vec3b>(i,j) = green;
}
else{
image.at<Vec3b>(i,j) = blue;
}
}
}
int thickness = -1;
int lineType = 8;
circle(image, Point(50, 50), 5, Scalar(255, 255, 255), thickness, lineType);
circle(image, Point(50, 100), 5, Scalar(255, 255, 255), thickness, lineType);
circle(image, Point(100, 50), 5, Scalar(255, 255, 255), thickness, lineType);
circle(image, Point(100, 100), 5, Scalar(0,0,0), thickness, lineType);
imwrite("result.png", image); // save the image
imshow("BP Simple Example", image); // show it to the user
waitKey(0);
return 0;
}

運行結果:![](http://upload-images.jianshu.io/upload_images/1825077-4e39454dc6c5cc68.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,431評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,637評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事?!?“怎么了?”我有些...
    開封第一講書人閱讀 178,555評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,900評論 1 318
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,629評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,976評論 1 328
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,976評論 3 448
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,139評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,686評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,411評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,641評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,129評論 5 364
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,820評論 3 350
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,233評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,567評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,362評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,604評論 2 380

推薦閱讀更多精彩內容

  • 芙蓉又長出花蕾, 在靜候佳人, 我很是歡喜。 蚜蟲在花蕾上聯歡, 活得很舒坦, 我有些擔心!
    panjw閱讀 220評論 0 3
  • 給我 一望無垠的田野 我要把家安在那里 除除草 耕耕田 種下春天和夏天 我要把樹栽在上面 刻下時間和容顏 我要把你...
    倫小讓閱讀 244評論 4 3
  • 1 不知道為什么, 這些日子的脾氣越來越暴躁,動不動在家就發火, 本來很小的一個事情,小聲說不了一兩句,馬上抬高聲...
    清風明月照牡丹閱讀 287評論 0 2
  • 轉自http://www.mamicode.com/info-detail-877996.html 一、網絡各個協...
    在這藍色天空下閱讀 18,129評論 7 48