Task03:字符識(shí)別模型

pytorch機(jī)器學(xué)習(xí)一個(gè)重要模塊。nn是核心。基礎(chǔ)太差,搞個(gè)簡(jiǎn)單的模型先熟悉torch架構(gòu).

########圖像識(shí)別

##步驟1

#a)導(dǎo)入庫(kù)

import torch

import torch.nnas nn

import torch.nn.functionalas F

import torch.optimas optim

from torchvisionimport datasets, transforms

import torchvision

from torch.autogradimport Variable

from torch.utils.dataimport DataLoader

import cv2

#b)獲取訓(xùn)練集和測(cè)試集

# 下載訓(xùn)練集

train_dataset = datasets.MNIST(root='D:\data2\pytorch',

train=True,

transform=transforms.ToTensor(),

download=True)

# 下載測(cè)試集

test_dataset = datasets.MNIST(root='D:\data2\pytorch',

train=False,

transform=transforms.ToTensor(),

download=True)

#root 用于指定數(shù)據(jù)集在下載之后的存放路徑

#transform 用于指定導(dǎo)入數(shù)據(jù)集需要對(duì)數(shù)據(jù)進(jìn)行那種變化操作

#train是指定在數(shù)據(jù)集下載完成后需要載入的那部分?jǐn)?shù)據(jù),設(shè)置為 True 則說(shuō)明載入的是該數(shù)據(jù)集的訓(xùn)練集部分,設(shè)置為 False 則說(shuō)明載入的是該數(shù)據(jù)集的測(cè)試集部分

#download 為 True 表示數(shù)據(jù)集需要程序自動(dòng)幫你下載

#這樣設(shè)置并運(yùn)行后,就會(huì)在指定路徑中下載 MNIST 數(shù)據(jù)集,之后就可以使用了。

#數(shù)據(jù)裝載和預(yù)覽

# dataset 參數(shù)用于指定我們載入的數(shù)據(jù)集名稱(chēng)

# batch_size參數(shù)設(shè)置了每個(gè)包中的圖片數(shù)據(jù)個(gè)數(shù)

# 在裝載的過(guò)程會(huì)將數(shù)據(jù)隨機(jī)打亂順序并進(jìn)打包

# 裝載訓(xùn)練集

batch_size=60

train_loader = torch.utils.data.DataLoader(dataset=train_dataset,

batch_size=batch_size,shuffle=True)

# 裝載測(cè)試集

test_loader = torch.utils.data.DataLoader(dataset=test_dataset,

batch_size=batch_size,shuffle=True)

images, labels =next(iter(train_loader))

img = torchvision.utils.make_grid(images)

img = img.numpy().transpose(1,2,0)

std = [0.5,0.5,0.5]

mean = [0.5,0.5,0.5]

img = img * std + mean

print(labels)

cv2.imshow('win', img)

key_pressed = cv2.waitKey(0)

#搭建神經(jīng)網(wǎng)絡(luò)

# 卷積層使用torch.nn.Conv2d

# 激活層使用torch.nn.ReLU

# 池化層使用torch.nn.MaxPool2d

# 全連接層使用torch.nn.Linear

class LeNet(nn.Module):

def __init__(self):

super(LeNet,self).__init__()

self.conv1 = nn.Sequential(nn.Conv2d(1,6,3,1,2), nn.ReLU(),

nn.MaxPool2d(2,2))

self.conv2 = nn.Sequential(nn.Conv2d(6,16,5), nn.ReLU(),

nn.MaxPool2d(2,2))

self.fc1 = nn.Sequential(nn.Linear(16 *5 *5,120),

nn.BatchNorm1d(120), nn.ReLU())

self.fc2 = nn.Sequential(

nn.Linear(120,84),

nn.BatchNorm1d(84),

nn.ReLU(),

nn.Linear(84,10))

# 最后的結(jié)果一定要變?yōu)?10,因?yàn)閿?shù)字的選項(xiàng)是0 ~ 9

? def forward(self, x):

x =self.conv1(x)

x =self.conv2(x)

x = x.view(x.size()[0], -1)

x =self.fc1(x)

x =self.fc2(x)

x =self.fc3(x)

return x

#訓(xùn)練模型

#device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

batch_size =64

LR =0.001

net = LeNet()#.to(device)

# 損失函數(shù)使用交叉熵

criterion = nn.CrossEntropyLoss()

# 優(yōu)化函數(shù)使用 Adam 自適應(yīng)優(yōu)化算法

optimizer = optim.Adam(

net.parameters(),

lr=LR,

)

epoch =1

if __name__ =='__main__':

for epochin range(epoch):

sum_loss =0.0

? ? ? ? for i, datain enumerate(train_loader):

inputs, labels = data

inputs, labels = Variable(inputs).cuda(), Variable(labels).cuda()

optimizer.zero_grad()#將梯度歸零

? ? ? ? ? outputs = net(inputs)#將數(shù)據(jù)傳入網(wǎng)絡(luò)進(jìn)行前向運(yùn)算

? ? ? ? ? loss = criterion(outputs, labels)#得到損失函數(shù)

? ? ? ? ? loss.backward()#反向傳播

? ? ? ? ? optimizer.step()#通過(guò)梯度做一步參數(shù)更新

? ? ? ? ? # print(loss)

? ? ? ? ? sum_loss += loss.item()

if i %100 ==99:

print('[%d,%d] loss:%.03f' %

(epoch +1, i +1, sum_loss /100))

sum_loss =0.0

? ? net.eval()#將模型變換為測(cè)試模式

? ? correct =0

? ? total =0

? ? for data_testin test_loader:

images, labels = data_test

images, labels = Variable(images).cuda(), Variable(labels).cuda()

output_test = net(images)

_, predicted = torch.max(output_test,1)

total += labels.size(0)

correct += (predicted == labels).sum()

print("correct1: ", correct)

print("Test acc: {0}".format(correct.item() /

len(test_dataset)))

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,321評(píng)論 6 543
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 99,559評(píng)論 3 429
  • 文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人,你說(shuō)我怎么就攤上這事。” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 178,442評(píng)論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我,道長(zhǎng),這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 63,835評(píng)論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 72,581評(píng)論 6 412
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 55,922評(píng)論 1 328
  • 那天,我揣著相機(jī)與錄音,去河邊找鬼。 笑死,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,931評(píng)論 3 447
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 43,096評(píng)論 0 290
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 49,639評(píng)論 1 336
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 41,374評(píng)論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 43,591評(píng)論 1 374
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,104評(píng)論 5 364
  • 正文 年R本政府宣布,位于F島的核電站,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 44,789評(píng)論 3 349
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 35,196評(píng)論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 36,524評(píng)論 1 295
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 52,322評(píng)論 3 400
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 48,554評(píng)論 2 379