效果圖:
流程:
- 搜集圖片
- 標注生成xml,可以用 labelImg,打上標簽是woman
- 利用voc_label.py工具,voc_label.py里面對應修改你的class數量和名稱
#sets=[('2012', 'train'), ('2012', 'val'), ('2007', 'train'), ('2007', 'val'), ('2007', 'test')]
#classes = ["aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog
", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor"]
sets=[('2007', 'train')]
classes = ["woman"]
在ImageSets下的Layout和Main要放置train.txt
train.txt 生成方法
運行python voc_label.py
- label生成一系列坐標文件(后綴.txt)
- 根目錄下生成(year)_train.txt
4. 修改cfg下的神經網絡的配置文件,這個最重要也比較難;
我用的是tiny-yolo-voc.cfg(輕量的,速度快)
我的如下:(前面兩個參數可能取決GPU服務器內存性能,設置大了有可能訓練了一會就掛了)
[net]
# 每batch個樣本更新一次參數。
batch=64
# 如果內存不夠大,將batch分割為subdivisions個子batch,每個子batch的大小為batch/subdivisions。
# 在darknet代碼中,會將batch/subdivisions命名為batch。
subdivisions=8
width=448
height=448
channels=3
momentum=0.9
decay=0.0005
angle=0
saturation = 1.5
exposure = 1.5
hue=.1
learning_rate=0.001
max_batches = 40000
policy=steps
steps=200,400,600,20000,30000
scales=2.5,2,2,.1,.1
# 切割,看需求可選
[crop]
crop_width=448
crop_height=448
flip=0
angle=0
saturation = 1.5
exposure = 1.5
[convolutional]
batch_normalize=1
filters=16
...
...
[convolutional]
size=1
stride=1
pad=1
# 修改最后一層卷積層核參數個數
# 計算公式是依舊自己數據的類別數
# filter=num×(classes + coords + 1)=5×(1+4+1)=30
filters=30
activation=linear
[region]
anchors = 1.08,1.19, 3.42,4.41, 6.63,11.38, 9.42,5.11, 16.62,10.52
bias_match=1
classes=1 //類別數,本例為1類
coords=4
num=5
softmax=1
jitter=.2
rescore=1
- 修改cfg/voc.data, data/voc.names;
cfg/voc.data:
# classes= 20
classes= 1
# train = /home/***
train = /opt/gongjia/darknet/train.txt
# valid = /opt/gongjia/darknet/2007_test.txt
names = data/voc.names
# 存放權重文件 tiny-yolo-voc_final.weights
# 自己手動新建backup,或者執行make backup
backup = backup
data/voc.names: 這個文件是放你標簽的名稱
woman
另外,修改代碼(一定別忘記,否則識別不到東西)
find ./ -name "*.c*" -exec grep -HEn --color "draw_detection" {} \;
最后一個參數,改成1
./src/detector.c:626:
draw_detections(im, l.w*l.h*l.n, thresh, boxes, probs, masks, names, alphabet, 1);
./src/yolo.c:313:
draw_detections(im, l.side*l.side*l.n, thresh, boxes, probs, 0, voc_names, alphabet, 1);
接下來就開始訓練了:
vi Makefile #根據你機器的情況,選擇打開GPU和CUDN
make
make backup
./darknet detector train ./cfg/voc.data cfg/tiny-yolo-voc.cfg
參考官網的命令 :
./darknet detector train cfg/voc.data cfg/yolo-voc.cfg darknet19_448.conv.23
我們也可以加上darknet19_448.conv.23,這個是基于google的imagenet,利用開源訓練集繼續訓練
./darknet detector train ./cfg/voc.data cfg/tiny-yolo-voc.cfg darknet19_448.conv.23
這個訓練集可能都是448尺寸的圖片,是否適用于自己訓練集的圖片,我的是64*128的,如果不確定可以暫時不用darknet19_448.conv.23;
測試:
./darknet detector test ./cfg/voc.data cfg/tiny-yolo-voc-test.cfg backup/tiny-yolo-voc_40000.weights data/person.jpg
tiny-yolo-voc-test.cfg
# Testing
batch=1
subdivisions=1
#最下面一行
random=0
結果:
先用測試照片試試:可以找出來,woman 概率是62%!
再用一張狗的圖片試試,沒有任何結果~~
Note: 訓練的時候random用默認的1,測試的時候random=0,不啟用多分辨率,這個是給訓練用的,測試要是設置為1,會如何?
random: YOLOv2新增了一些訓練技巧,Multi-Scale Training就是其中之一,如果random置為1,會啟用Multi-Scale Training。
啟用Multi-Scale Training時每10個Batch,網絡會隨機地選擇一個新的圖片尺寸,由于使用的down samples是32,所以不同的尺寸大小也選擇為32的倍數{320,352…..608},最小320320,最大608608,網絡會自動改變尺寸,并繼續訓練的過程。
這一策略讓網絡在不同的輸入尺寸上都能達到一個很好的預測效果,同一網絡能在不同分辨率上進行檢測。當輸入圖片尺寸比較小的時候跑的比較快,輸入圖片尺寸比較大的時候精度高。
參考鏈接:
YOLO官網
YOLOv2訓練自己的數據集——VOC格式
YOLOv2訓練自己的數據集——三角形標識
YOLOv2訓練自己的數據集——開始停止標識
配置參數1
配置參數2
配置參數3
github——臉部識別和遮臉的例子
yolo-cpu的優化