gluon學(xué)習(xí)筆記


  • 深度學(xué)習(xí)
  • 目標(biāo)檢測(cè)
  • 深度學(xué)習(xí)
  • 神經(jīng)網(wǎng)絡(luò)

學(xué)到的新知識(shí)

bn放在relu后面

BN應(yīng)該放在relu后

用于分類(lèi)、檢測(cè)和分割的移動(dòng)網(wǎng)絡(luò) MobileNetV2

如何評(píng)價(jià)MobileNetV2

卷積核的數(shù)量

卷積神經(jīng)網(wǎng)絡(luò) — 從0開(kāi)始

當(dāng)輸入數(shù)據(jù)有多個(gè)通道的時(shí)候,每個(gè)通道會(huì)有對(duì)應(yīng)的權(quán)重,然后會(huì)對(duì)每個(gè)通道做卷積之后在通道之間求和。所以當(dāng)輸出只有一個(gè)的時(shí)候,卷積的channel數(shù)目和data的channel數(shù)目是一樣的。

當(dāng)輸出需要多通道時(shí),每個(gè)輸出通道有對(duì)應(yīng)權(quán)重,然后每個(gè)通道上做卷積。所以當(dāng)輸入有n個(gè)channel,輸出有h個(gè)channel時(shí),卷積核channel數(shù)目為n * h,每個(gè)輸出channel對(duì)應(yīng)一個(gè)bias ,卷積核的維度為(h,n,w,h)

conv(data, w, b)[:,i,:,:] = conv(data, w[i,:,:,:], b[i])

\Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,.

123

gluon語(yǔ)法

nn.Block與nn.sequential的嵌套使用

class RecMLP(nn.Block):
    def __init__(self, **kwargs):
        super(RecMLP, self).__init__(**kwargs)
        self.net = nn.Sequential()
        with self.name_scope():
            self.net.add(nn.Dense(256, activation="relu"))
            self.net.add(nn.Dense(128, activation="relu"))
            self.dense = nn.Dense(64)

    def forward(self, x):
        return nd.relu(self.dense(self.net(x)))

rec_mlp = nn.Sequential()
rec_mlp.add(RecMLP())
rec_mlp.add(nn.Dense(10))
print(rec_mlp)

初始化與參數(shù)訪(fǎng)問(wèn)

from mxnet import init
params.initialize(init=init.Normal(sigma=0.02), force_reinit=True)
print(net[0].weight.data(), net[0].bias.data())

我們也可以通過(guò)collect_params來(lái)訪(fǎng)問(wèn)Block里面所有的參數(shù)(這個(gè)會(huì)包括所有的子Block)。它會(huì)返回一個(gè)名字到對(duì)應(yīng)Parameter的dict。

也可以自定義各層的初始化方法,沒(méi)有自定義的按照net.initialize里面的方法進(jìn)行定義

from mxnet.gluon import nn
from mxnet import nd
from mxnet import init

def get_net():
    net = nn.Sequential()
    with net.name_scope():
        net.add(nn.Dense(4,activation="relu"))#,weight_initializer=init.Xavier()))
        net.add(nn.Dense(2,weight_initializer=init.Zero(),bias_initializer=init.Zero()) )
    return net

x = nd.random.uniform(shape=(3,5))
net = get_net()
net.initialize(init.One())
net(x)
print(net[1].weight.data

GPU訪(fǎng)問(wèn)

  1. 刪除cpu版本mxnet
pip uninstall mxnet
  1. 更新GPU版本mxnet
pip install -U --pre mxnet-cu80
  1. 查看版本號(hào)
import pip
for pkg in ['mxnet', 'mxnet-cu75', 'mxnet-cu80']:
    pip.main(['show', pkg])

使用jupyter的相關(guān)插件

  1. notedown插件
    可以在jupyter 中查看markdown文件

  2. nb_conda
    是conda的插件,可以在jupyter里面修改python內(nèi)核版本

優(yōu)化方法

momentum
gluon.Trainer的learning_rate屬性和set_learning_rate函數(shù)可以隨意調(diào)整學(xué)習(xí)率。

trainer = gluon.Trainer(net.collect_params(), 'sgd',
                            {'learning_rate': lr, 'momentum': mom})

adagrad
Adagrad是一個(gè)在迭代過(guò)程中不斷自我調(diào)整學(xué)習(xí)率,并讓模型參數(shù)中每個(gè)元素都使用不同學(xué)習(xí)率的優(yōu)化算法。

    trainer = gluon.Trainer(net.collect_params(), 'adagrad',
                            {'learning_rate': lr})

Adam

trainer = gluon.Trainer(net.collect_params(), 'adam',
                            {'learning_rate': lr})

通過(guò)以上分析, 理論上可以說(shuō), 在數(shù)據(jù)比較稀疏的時(shí)候, adaptive 的方法能得到更好的效果, 例如, adagrad, adadelta, rmsprop, adam 等. 在數(shù)據(jù)稀疏的情況下, adam 方法也會(huì)比 rmsprop 方法收斂的結(jié)果要好一些, 所以, 通常在沒(méi)有其它更好的理由的前框下, 我會(huì)選用 adam 方法, 可以比較快地得到一個(gè)預(yù)估結(jié)果. 但是, 在論文中, 我們看到的大部分還是最原始的 mini-batch 的 SGD 方法. 因?yàn)轳R鞍面的存在等問(wèn)題, SGD 方法有時(shí)候較難收斂. 另外, SGD 對(duì)于參數(shù)的初始化要求也比較高. 所以, 如果要是想快速收斂的話(huà), 建議使用 adam 這類(lèi) adaptive 的方法

延遲執(zhí)行

延后執(zhí)行使得系統(tǒng)有更多空間來(lái)做性能優(yōu)化。但我們推薦每個(gè)批量里至少有一個(gè)同步函數(shù),例如對(duì)損失函數(shù)進(jìn)行評(píng)估,來(lái)避免將過(guò)多任務(wù)同時(shí)丟進(jìn)后端系統(tǒng)。

from mxnet import autograd

mem = get_mem()

total_loss = 0
for x, y in get_data():
    with autograd.record():
        L = loss(y, net(x))
    total_loss += L.sum().asscalar()
    L.backward()
    trainer.step(x.shape[0])

nd.waitall()
print('Increased memory %f MB' % (get_mem() - mem))

多GPU訓(xùn)練

ctx = [gpu(i) for i in range(num_gpus)]
data_list = gluon.utils.split_and_load(data, ctx)
label_list = gluon.utils.split_and_load(label, ctx)


fintune 微調(diào)

gluon微調(diào)

一些可以重復(fù)使用的代碼

讀取數(shù)據(jù)

from mxnet import gluon
from mxnet import ndarray as nd

def transform(data, label):
    return data.astype('float32')/255, label.astype('float32')
mnist_train = gluon.data.vision.FashionMNIST(train=True, transform=transform)
mnist_test = gluon.data.vision.FashionMNIST(train=False, transform=transform)

計(jì)算精度

def accuracy(output, label):
    return nd.mean(output.argmax(axis=1)==label).asscalar()

我們先使用Flatten層將輸入數(shù)據(jù)轉(zhuǎn)成 batch_size x ? 的矩陣,然后輸入到10個(gè)輸出節(jié)點(diǎn)的全連接層。照例我們不需要制定每層輸入的大小,gluon會(huì)做自動(dòng)推導(dǎo)。

激活函數(shù)

sigmoid

from mxnet import nd
def softmax(X):
    exp = nd.exp(X)
    # 假設(shè)exp是矩陣,這里對(duì)行進(jìn)行求和,并要求保留axis 1,
    # 就是返回 (nrows, 1) 形狀的矩陣
    partition = exp.sum(axis=1, keepdims=True)
    return exp / partition

relu

def relu(X):
    return nd.maximum(X, 0)

損失函數(shù)

平方誤差

square_loss = gluon.loss.L2Loss()

def square_loss(yhat, y):
    # 注意這里我們把y變形成yhat的形狀來(lái)避免矩陣形狀的自動(dòng)轉(zhuǎn)換
    return (yhat - y.reshape(yhat.shape)) ** 2
 

交叉熵?fù)p失

def cross_entropy(yhat, y):
    return - nd.pick(nd.log(yhat), y)
softmax_cross_entropy = gluon.loss.SoftmaxCrossEntropyLoss()

取一個(gè)batch_size的代碼

scratch版本

import random
batch_size = 1
def data_iter(num_examples):
    idx = list(range(num_examples))
    random.shuffle(idx)
    for i in range(0, num_examples, batch_size):
        j = nd.array(idx[i:min(i+batch_size,num_examples)])
        yield X.take(j), y.take(j)

gluon版本


batch_size = 1
dataset_train = gluon.data.ArrayDataset(X_train, y_train)
data_iter_train = gluon.data.DataLoader(dataset_train, batch_size, shuffle=True)


初始化權(quán)值

scratch版本


def get_params():
    w = nd.random.normal(shape=(num_inputs, 1))*0.1
    b = nd.zeros((1,))
    for param in (w, b):
        param.attach_grad()
    return (w, b)

gluon版本

net.initialize()


net.collect_params().initialize(mx.init.Normal(sigma=1))

SGD

scratch版本

def SGD(params, lr):
    for param in params:
        param[:] = param - lr * param.grad

L2正則

def L2_penalty(w, b):
    return ((w**2).sum() + b**2) / 2

gluon版本

    trainer = gluon.Trainer(net.collect_params(), 'sgd', {
        'learning_rate': learning_rate, 'wd': weight_decay})

這里的weight_decay表明這里添加了L2正則,正則化
w = w -lr * grad - wd * w

訓(xùn)練過(guò)程

scratch版本

    for e in range(epochs):        
        for data, label in data_iter(num_train):
            with autograd.record():
                output = net(data, lambd, *params)
                loss = square_loss(
                    output, label) + lambd * L2_penalty(*params)
            loss.backward()
            SGD(params, learning_rate)
        train_loss.append(test(params, X_train, y_train))
        test_loss.append(test(params, X_test, y_test))

gluon版本


    for e in range(epochs):        
        for data, label in data_iter_train:
            with autograd.record():
                output = net(data)
                loss = square_loss(output, label)
            loss.backward()
            trainer.step(batch_size)            
        train_loss.append(test(net, X_train, y_train))
        test_loss.append(test(net, X_test, y_test))

%matplotlib inline
import matplotlib as mpl
mpl.rcParams['figure.dpi']= 120
import matplotlib.pyplot as plt

def train(X_train, X_test, y_train, y_test):
    # 線(xiàn)性回歸模型
    net = gluon.nn.Sequential()
    with net.name_scope():
        net.add(gluon.nn.Dense(1))
    net.initialize()
    # 設(shè)一些默認(rèn)參數(shù)
    learning_rate = 0.01
    epochs = 100
    batch_size = min(10, y_train.shape[0])
    dataset_train = gluon.data.ArrayDataset(X_train, y_train)
    data_iter_train = gluon.data.DataLoader(
        dataset_train, batch_size, shuffle=True)
    # 默認(rèn)SGD和均方誤差
    trainer = gluon.Trainer(net.collect_params(), 'sgd', {
        'learning_rate': learning_rate})
    square_loss = gluon.loss.L2Loss()
    # 保存訓(xùn)練和測(cè)試損失
    train_loss = []
    test_loss = []
    for e in range(epochs):
        for data, label in data_iter_train:
            with autograd.record():
                output = net(data)
                loss = square_loss(output, label)
            loss.backward()
            trainer.step(batch_size)
        train_loss.append(square_loss(
            net(X_train), y_train).mean().asscalar())
        test_loss.append(square_loss(
            net(X_test), y_test).mean().asscalar())
    # 打印結(jié)果
    plt.plot(train_loss)
    plt.plot(test_loss)
    plt.legend(['train','test'])
    plt.show()
    return ('learned weight', net[0].weight.data(),
            'learned bias', net[0].bias.data())

最終版

def train(train_data, test_data, net, loss, trainer, ctx, num_epochs, print_batches=None):
    """Train a network"""
    print("Start training on ", ctx)
    if isinstance(ctx, mx.Context):
        ctx = [ctx]
    for epoch in range(num_epochs):
        train_loss, train_acc, n, m = 0.0, 0.0, 0.0, 0.0
        if isinstance(train_data, mx.io.MXDataIter):
            train_data.reset()
        start = time()
        for i, batch in enumerate(train_data):
            data, label, batch_size = _get_batch(batch, ctx)
            losses = []
            with autograd.record():
                outputs = [net(X) for X in data]
                losses = [loss(yhat, y) for yhat, y in zip(outputs, label)]
            for l in losses:
                l.backward()
            train_acc += sum([(yhat.argmax(axis=1)==y).sum().asscalar()
                              for yhat, y in zip(outputs, label)])
            train_loss += sum([l.sum().asscalar() for l in losses])
            trainer.step(batch_size)
            n += batch_size
            m += sum([y.size for y in label])
            if print_batches and (i+1) % print_batches == 0:
                print("Batch %d. Loss: %f, Train acc %f" % (
                    n, train_loss/n, train_acc/m
                ))

        test_acc = evaluate_accuracy(test_data, net, ctx)
        print("Epoch %d. Loss: %.3f, Train acc %.2f, Test acc %.2f, Time %.1f sec" % (
            epoch, train_loss/n, train_acc/m, test_acc, time() - start
        ))

reference

從零開(kāi)始碼一個(gè)皮卡丘檢測(cè)器

圖片標(biāo)注工具

mxnet 使用自己的圖片數(shù)據(jù)訓(xùn)練CNN模型

mxnet image API

Create a Dataset Using RecordIO

基于MXNet gluon 的SSD模型訓(xùn)練

解決conda與ipython notebook的python版本問(wèn)題

神經(jīng)網(wǎng)絡(luò)計(jì)算參數(shù)量的方法

神經(jīng)網(wǎng)絡(luò)計(jì)算特征圖的大小的方法

BN應(yīng)該放在relu后

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,238評(píng)論 6 531
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 98,430評(píng)論 3 415
  • 文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人,你說(shuō)我怎么就攤上這事?!?“怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 176,134評(píng)論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我,道長(zhǎng),這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 62,893評(píng)論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 71,653評(píng)論 6 408
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 55,136評(píng)論 1 323
  • 那天,我揣著相機(jī)與錄音,去河邊找鬼。 笑死,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,212評(píng)論 3 441
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 42,372評(píng)論 0 288
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 48,888評(píng)論 1 334
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 40,738評(píng)論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 42,939評(píng)論 1 369
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,482評(píng)論 5 359
  • 正文 年R本政府宣布,位于F島的核電站,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 44,179評(píng)論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 34,588評(píng)論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 35,829評(píng)論 1 283
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 51,610評(píng)論 3 391
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 47,916評(píng)論 2 372

推薦閱讀更多精彩內(nèi)容