PyTorch模型的保存和加載

保存和加載模型

作者:geekboy

日期:2020-3-2

當訓練好一個模型后,我們需要將模型保存到硬盤。同時當我們需要推理的時候需要將模型從硬盤中加載。

關于保存和加載模型,有三個核心功能需要熟悉

  1. torch.save:將序列化對象保存到磁盤。這個函數使用Python的pickle實用程序進行序列化。使用此功能可以保存各種對象的模型,張量和字典。
  2. torch.load:使用pickle的解腌功能將腌制的目標文件反序列化到內存中,此功能還有助于設備將數據加載到其中
  3. torch.nn.Module.load_state_dict:使用反序列化的state_dict加載模型的參數字典。

state_dict的概念

在PyTorch中,模型的可學習參數(即權重和偏差)torch.nn.Module包含在模型的參數中(通過訪問model.parameters())。由于state_dict是一個簡單的Python字典對象,每個層映射到其參數張量。這里要強調的是,只有具有可學習參數的層(卷積層,線性層)和已注冊的緩沖區(batchnorm的running_mean)才在模型的state_dict中具有條目。優化器對象(torch.optim)還具有state_dict,其中包含有關優化器狀態以及所用超參數的信息。

由于state_dict對象是Python詞典,因此可以輕松地保存,更新,更改和還原它們,從而為PyTorch模型和優化器增加了很多模塊化。
下面通過一個簡單的model來看一下state_dict中到底有什么:

import torch
import torch.nn as nn
import torch.optim as optim
import torch.nn.functional as F
#定義模型
class TheModelClass(nn.Module):
    def __init__(self):
        super(TheModelClass,self).__init__()
        self.conv1=nn.Conv2d(3,6,5)
        self.pool=nn.MaxPool2d(2,2)
        self.conv2=nn.Conv2d(6,16,5)
        self.fc1=nn.Linear(16*5*5,120)
        self.fc2=nn.Linear(120,84)
        self.fc3=nn.Linear(84,10)
    def forward(self,x):
        x=self.pool(F.relu(self.conv1(x)))
        x=self.pool(F.relu(self.conv2(x)))
        x=x.view(-1,16*5*5)
        x=F.relu(self.fc1(x))
        x=F.relu(self.fc2(x))
        x=self.fc3(x)
        return x
#初始化模型
model=TheModelClass()
#初始化優化器
optimizer=optim.SGD(model.parameters(),lr=0.001,momentum=0.9)
for param_tensor in model.state_dict():
    print(param_tensor,"\t",model.state_dict()[param_tensor].size())

將得到如下的結果

conv1.weight     torch.Size([6, 3, 5, 5])
conv1.bias   torch.Size([6])
conv2.weight     torch.Size([16, 6, 5, 5])
conv2.bias   torch.Size([16])
fc1.weight   torch.Size([120, 400])
fc1.bias     torch.Size([120])
fc2.weight   torch.Size([84, 120])
fc2.bias     torch.Size([84])
fc3.weight   torch.Size([10, 84])
fc3.bias     torch.Size([10])

也可以查看優化器的狀態:

#查看優化器的狀態
print("Optimizer's state_dict:")
optimizer.state_dict()

結果如下:

Optimizer's state_dict:
{'state': {},
 'param_groups': [{'lr': 0.001,
   'momentum': 0.9,
   'dampening': 0,
   'weight_decay': 0,
   'nesterov': False,
   'params': [4901733872,
    4901735712,
    4901733072,
    4899689088,
    4899979824,
    4901626736,
    4901626096,
    4901626496,
    4901626896,
    4901628736]}]}

推理模型的保存和加載

保存/加載 state_dict(極力推薦)

Save:

torch.save(model.state_dict(),"model.pth")

load:

model.load_state_dict(torch.load("model.pth"))
model.eval()
TheModelClass(
  (conv1): Conv2d(3, 6, kernel_size=(5, 5), stride=(1, 1))
  (pool): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
  (conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))
  (fc1): Linear(in_features=400, out_features=120, bias=True)
  (fc2): Linear(in_features=120, out_features=84, bias=True)
  (fc3): Linear(in_features=84, out_features=10, bias=True)
)

保存模型已進行推理時,僅需要保存訓練后的模型學習參數。使用torch.save()函數保存模型的state_dict將為您提供最大的靈活性,以便以后恢復模型,這就是為什么推薦使用此方法來保存模型。常見的PyTorch約定是使用.pt或.pth文件擴展名保存模型。這里需要強調一點:

必須調用model.eval(),以便在運行推理之前將dropout和batch規范化層設置為評估模式。如果不這樣做,將會產生不一致的推斷結果

請注意,在使用load_state_dict()函數使用字典對象,而不是保存對象的路徑。這意味著,在將保存的state_dict傳遞給
load_state_dict()函數之前,必須對其進行反序列化。如,無法使用加載model.load_state_dict(PATH)

保存整個模型并加載

**Save:**

torch.save(model,"whole_model.pth")

Load:

model=torch.load("whole_model.pth")
model.eval()

這種保存/加載過程使用最直觀的語法,并且涉及最少的代碼。以這種方式保存模型將使用Python的pickle模塊保存整個模塊。這種方法的缺點時序列化的數據保存到特定的類,并且在保存模型時使用確切的目錄結構。這樣做的原因是因為pickle不會保存模型類本身。而是將其保存到包含類的文件的路徑,該路徑在加載時使用。因此,在其他項目中使用或重構后,代碼可能會以各種方式中斷。
### 保存模型的狀態并加載
有時候可能由于其他原因模型訓練過程中被中斷了,這時候就需要保存模型的狀態,從終止狀態進行訓練。首先我們先定義模型的狀態:

state={'model':model.state_dict(),'optimizer':optimizer.state_dict(),'epoch':epoch}
torch.save(state,path)

同樣加載也十分的簡單只需要下面操作就可以了:

checkpoint=torch.load(path)
model.load_state_dict(checkpoint('model'))
optimizer.load_state_dict(checkpoint['optimizer'])
epoch=checkpoint['epoch']

### 跨設備保存加載模型
#### 保存在GPU上,在CPU上加載
**Save:**

torch.save(model.state_dict(),"GPU.pth")

**Load:**

device=torch.device("cpu")
model=TheModelClass()
model.load_state_dict(torch.load("GPU.pth",map_location=device))

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,362評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,577評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,486評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,852評論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,600評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,944評論 1 328
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,944評論 3 447
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,108評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,652評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,385評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,616評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,111評論 5 364
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,798評論 3 350
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,205評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,537評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,334評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,570評論 2 379

推薦閱讀更多精彩內容