15 keras模型

原文地址
介紹完了優化器和目標函數,那么剩下的就是訓練模型了。這一小節,我們來看一下Keras的Models是如何使用的。Keras可以建立兩種模型,一種是線性疊加的,層與層之間是全連接的方式,一個輸入,一個輸出;另外一種是圖型的,輸入與輸出數量任意,并且可以指定層與層之間的部分連接方式。

一、Sequential(序貫模型)方法及屬性介紹

model = keras.models.Sequential()  

序貫模型就是把每一層按照次序疊加起來,每層之間采用全連接方式。下面看一下對象model都有哪些方法。
1 add(layer):往model里邊增加一層
2 compile(optimizer, loss, class_model=”categorical”):
參數:

  • optimizer:指定模型訓練的優化器;
  • loss:目標函數;
  • class_mode: ”categorical”和”binary”中的一個,只是用來計算分類的精確度

3 fit(X, y, batch_size=128, nb_epoch=100, verbose=1, validation_split=0,****validation_data=None,shuffle=True,show_accuracy=False,callbacks=[],****class_weight=Noe, sample_weight=None)****:用于訓練一個固定迭代次數的模型**
返回:記錄字典,包括每一次迭代的訓練誤差率和驗證誤差率;

參數:

X:訓練數據
y : 標簽
batch_size : 每次訓練和梯度更新塊的大小。
nb_epoch: 迭代次數。
verbose : 進度表示方式。0表示不顯示數據,1表示顯示進度條,2表示用只顯示一個數據。
callbacks : 回調函數列表。就是函數執行完后自動調用的函數列表。
validation_split : 驗證數據的使用比例。
validation_data : 被用來作為驗證數據的(X, y)元組。會代替validation_split所劃分的驗證數據。
shuffle : 類型為boolean或 str(‘batch’)。是否對每一次迭代的樣本進行shuffle操作(可以參見博文Theano學習筆記01--Dimshuffle()函數)。’batch’是一個用于處理HDF5(keras用于存儲權值的數據格式)數據的特殊選項。
show_accuracy:每次迭代是否顯示分類準確度。
class_weigh : 分類權值鍵值對。原文:dictionary mapping classes to a weight value, used for scaling the lossfunction (during training only)。鍵為類別,值為該類別對應的權重。只在訓練過程中衡量損失函數用。
sample_weight : list or numpy array with1:1 mapping to the training samples, used for scaling the loss function (duringtraining only). For time-distributed data, there is one weight per sample pertimestep, i.e. if your output data is shaped(nb_samples, timesteps, output_dim), your mask should be of shape(nb_samples, timesteps, 1). This allows you to maskout or reweight individual output timesteps, which is useful in sequence tosequence learning.

4 evalute(X, y, batch_size=128, show_accuracy=False,****verbose=1, sample_weight=None)****: 展示模型在驗證數據上的效果
返回:誤差率或者是(誤差率,準確率)元組(if show_accuracy=True)
參數:fit函數中的參數基本一致,其中verbose取1或0,表示有進度條或沒有

5 predict(X, batch_size=128, verbose=1): 用于對測試數據的預測
返回:對于測試數據的預測數組
參數:fit函數中的參數一樣。

6 predict_classes(X, batch_size=128, verbose=1): 用于對測試數據的分類預測
返回:對于測試數據的預測分類結果數組
參數:evaluate函數中的參數一樣。

7 train_on_batch(X, y, accuracy=False, class_weight=None, sample_weight=None): 對數據塊進行計算并梯度更新
返回:數據塊在現有模型中的誤差率或者元組(if show_accuracy=True)
參數:evaluate函數中的參數一樣。

8 test_on_batch(X, y, accuracy=False, sample_weight=None): 用數據塊進行性能驗證
返回:數據塊在現有模型中的誤差率或者元組(誤差率,準確率)(if show_accuracy=True)
參數:evaluate函數中的參數一樣。

9 save_weights (fname, overwrite=False): 將所有層的權值保存為HDF5文件
返回:如果overwrite=False并且fname已經存在,則會拋出異常。
參數:

fname: 文件名
overwrite : 如果已經存在,是否覆蓋原文件。
10 load_weights(fname): 加載已經存在的權值數據到程序中的模型里面。文件中的模型和程序中的模型結構必須一致。在compile之前或之后都可以調用load_ weights函數。
參數: fname文件名

二、Sequential(序貫模型)舉例說明

from keras.models import Sequential  
from keras.layers.core import Dense, Dropout, Activation  
from keras.optimizers import SGD  
   
model = Sequential()  
model.add(Dense(2, init='uniform', input_dim=64))  
model.add(Activation('softmax'))  
   
model.compile(loss='mse', optimizer='sgd')  
   
''''' 
Verbose=1或2的結果演示 
'''  
model.fit(X_train, y_train, nb_epoch=3, batch_size=16, verbose=1)  
# 輸出信息  
''''' 
Train on 37800 samples, validate on 4200 samples 
Epoch 0 
37800/37800 [==============================] - 7s - loss: 0.0385 
Epoch 1 
37800/37800 [==============================] - 8s - loss: 0.0140 
Epoch 2 
10960/37800 [=======>......................] - ETA: 4s - loss: 0.0109 
'''  
   
model.fit(X_train, y_train, nb_epoch=3, batch_size=16, verbose=2)  
# 輸出信息  
''''' 
Train on 37800 samples, validate on 4200 samples 
Epoch 0 
loss: 0.0190 
Epoch 1 
loss: 0.0146 
Epoch 2 
loss: 0.0049 
'''  
   
''''' 
show_accuracy=True的演示,會輸出誤差率-正確率 
'''  
model.fit(X_train, y_train, nb_epoch=3, batch_size=16, verbose=2, show_accuracy=True)  
# 輸出信息  
''''' 
Train on 37800 samples, validate on 4200 samples 
Epoch 0 
loss: 0.0190 - acc.: 0.8750 
Epoch 1 
loss: 0.0146 - acc.: 0.8750 
Epoch 2 
loss: 0.0049 - acc.: 1.0000 
'''  
   
''''' 
validation_split=0.1表示總樣本的10%用來進行驗證。比如下方實例,樣本總數42000,則驗證數據占10%,即4200,剩余的37800為訓練數據。 
'''  
model.fit(X_train, y_train, nb_epoch=3, batch_size=16, validation_split=0.1, show_accuracy=True, verbose=1)  
# outputs  
''''' 
Train on 37800 samples, validate on 4200 samples 
Epoch 0 
37800/37800 [==============================] - 7s - loss: 0.0385 - acc.:0.7258 - val. loss: 0.0160 - val. acc.: 0.9136 
Epoch 1 
37800/37800 [==============================] - 8s - loss: 0.0140 - acc.:0.9265 - val. loss: 0.0109 - val. acc.: 0.9383 
Epoch 2 
10960/37800 [=======>......................] - ETA: 4s - loss: 0.0109 -acc.: 0.9420 
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,908評論 6 541
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,324評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,018評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,675評論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,417評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,783評論 1 329
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,779評論 3 446
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,960評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,522評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,267評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,471評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,009評論 5 363
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,698評論 3 348
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,099評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,386評論 1 294
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,204評論 3 398
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,436評論 2 378

推薦閱讀更多精彩內容