原文來源:https://zhuanlan.zhihu.com/p/32283641
Github上的python代碼及素材庫: https://github.com/LiuXiaolong19920720/Add-Christmas-Hat
偶然在知乎上看到有人用python代碼實現給頭像加上圣誕帽, 遂跟著教程嘗試之。
實驗環境及文章中用到的庫:
OpenCV
是一個跨平臺計算機視覺庫,OpenCV可用于開發實時的圖像處理、計算機視覺以及模式識別程序。OpenCV有兩個Python接口,老版本的cv模塊使用OpenCV內置的數據類型,新版本的cv2模塊使用NumPy數組。
Dlib
Dlib是一個機器學習的C++庫,包含了許多機器學習常用的算法。作者使用它是由于dlib的人臉識別能力強于OpenCV中的人臉識別(并包含人臉的關鍵點檢驗)
環境
我依然使用的是windows系統下的Anaconda并用jupyter notebook完成編譯
準備工作:
下載openCV庫
在windows powershell中鍵入 conda install -c menpo cv2
下載dlib庫
在windows powershell中鍵入 conda install -c conda-forge dlib
或者conda install -c menpo dlib
實驗中用到的素材可在作者的github上下載:https://github.com/LiuXiaolong19920720/Add-Christmas-Hat
(1)圣誕帽素材
注:關于這兩圖的差別在于用hat.png的shape是三維(R,G,B)層而hat2.png的shape是四維(R,G,B,α)層,這一點可以通過img.shape查詢:
hat_img = cv2.imread("hat.png")
print hat_img.shape
hat2_img = cv2.imread("hat2.png",-1)
print hat2_img.shape
輸出結果如下:
(579, 717, 3)
(702, 880, 4)
前兩個數字代表圖像的大小,由第三個數字可得hat2.png是4維, cv2.imread中的第二個參數-1是提取alpha通道, 至于hat.png存在的意義...我還在問作者...
在這里順便介紹一下shape提取的四個維度是什么吧...
前三個維度R,G,B分別是紅色通道,綠色通道,藍色通道, 你可以將之理解為一副圖我們分別在三個通道上著色,覆蓋混合在一起生成的新的顏色就是我們最后在圖像上看到的顏色。α(阿爾法)通道(也就是我們提取的-1,最后一個通道)指的是特別的通道,意思是“非彩色”通道,主要是用來保存選區和編輯選區,用來描述圖片的透明與半透明度。值得一提的是, png圖像具有α通道而jpg圖像沒有。
(2) 頭像素材
這個就自己隨便在網上選啦, 最好選擇含人物正臉的圖像(用到的是dlib中的get_frontal_face_detector), 由于我們用的dlib的數據庫的學習對象大都是人物頭像, 好像萌寵與二次元人物的人臉是無法識別的目前。 我充滿惡意的用了這一張:
(3)人臉識別數據庫
依然見作者的github, 文件名是shape_predictor_5_face_landmarks.dat
代碼部分
首先依然是導入我們需要的庫:剛剛下載好的dlib,cv2還有用作計算的NumPy.
import dlib
import cv2
import numpy as np
把加帽子寫成一個完整的函數啦
這一段實現的分別是:
<1>將帽子素材圖分離為r,g,b,α通道
<2> 將帽子圖的r,g,b三通道合成在一起
<3>將α通道圖層保存,將帽子圖的
def add_hat(img,hat_img):
# 分離rgba通道,合成rgb三通道帽子圖,a通道后面做mask用
r,g,b,a = cv2.split(hat_img)
rgb_hat = cv2.merge((r,g,b))
cv2.imwrite("hat_alpha.jpg",a)
保存成功的alpha通道帽子圖如下:
下面這一段是用我們剛剛提到的從作者github上下載的人臉識別數據庫進行人臉識別以及正臉檢測
# dlib人臉關鍵點檢測器
predictor_path = "shape_predictor_5_face_landmarks.dat"
predictor = dlib.shape_predictor(predictor_path)
# dlib正臉檢測器
detector = dlib.get_frontal_face_detector()
# 正臉檢測
dets = detector(img, 1)
檢測到人臉后的處理過程,細節解釋見代碼中#后的注釋部分,#中的非文字說明部分為原作者的測試代碼。
# 如果檢測到人臉
# x,y,w,h 分別為檢測到的正臉裁剪出的正方形圖塊對應的坐標點
# 正臉正方形圖塊左上角坐標為(x,y), 右下角坐標為(x+w, y+h)
if len(dets)>0:
for d in dets:
x,y,w,h = d.left(),d.top(), d.right()-d.left(), d.bottom()-d.top()
# 關鍵點檢測,5個關鍵點
shape = predictor(img, d)
# for point in shape.parts():
# cv2.circle(img,(point.x,point.y),3,color=(0,255,0))
# cv2.imshow("image",img)
# cv2.waitKey()
# 選取左右眼眼角的點
point1 = shape.part(0)
point2 = shape.part(2)
# 求兩點中心
eyes_center = ((point1.x+point2.x)//2,(point1.y+point2.y)//2)
# cv2.circle(img,eyes_center,3,color=(0,255,0))
# cv2.imshow("image",img)
# cv2.waitKey()
# 根據人臉大小調整帽子大小
factor = 1.5
resized_hat_h = int(round(rgb_hat.shape[0]*w/rgb_hat.shape[1]*factor))
resized_hat_w = int(round(rgb_hat.shape[1]*w/rgb_hat.shape[1]*factor))
if resized_hat_h > y:
resized_hat_h = y-1
# 根據人臉大小調整帽子大小
resized_hat = cv2.resize(rgb_hat,(resized_hat_w,resized_hat_h))
# 用alpha通道作為mask
mask = cv2.resize(a,(resized_hat_w,resized_hat_h))
mask_inv = cv2.bitwise_not(mask)
# 帽子相對與人臉框上線的偏移量
dh = 0
dw = 0
# 原圖ROI
# bg_roi = img[y+dh-resized_hat_h:y+dh, x+dw:x+dw+resized_hat_w]
bg_roi = img[y+dh-resized_hat_h:y+dh,(eyes_center[0]-resized_hat_w//3):(eyes_center[0]+resized_hat_w//3*2)]
# 原圖ROI中提取放帽子的區域
bg_roi = bg_roi.astype(float)
mask_inv = cv2.merge((mask_inv,mask_inv,mask_inv))
alpha = mask_inv.astype(float)/255
# 相乘之前保證兩者大小一致(可能會由于四舍五入原因不一致)
alpha = cv2.resize(alpha,(bg_roi.shape[1],bg_roi.shape[0]))
# print("alpha size: ",alpha.shape)
# print("bg_roi size: ",bg_roi.shape)
bg = cv2.multiply(alpha, bg_roi)
bg = bg.astype('uint8')
cv2.imwrite("bg.jpg",bg)
# cv2.imshow("image",img)
# cv2.waitKey()
# 提取帽子區域
hat = cv2.bitwise_and(resized_hat,resized_hat,mask = mask)
cv2.imwrite("hat.jpg",hat)
# cv2.imshow("hat",hat)
# cv2.imshow("bg",bg)
# print("bg size: ",bg.shape)
# print("hat size: ",hat.shape)
# 相加之前保證兩者大小一致(可能會由于四舍五入原因不一致)
hat = cv2.resize(hat,(bg_roi.shape[1],bg_roi.shape[0]))
# 兩個ROI區域相加
add_hat = cv2.add(bg,hat)
# cv2.imshow("add_hat",add_hat)
# 把添加好帽子的區域放回原圖
img[y+dh-resized_hat_h:y+dh,(eyes_center[0]-resized_hat_w//3) (eyes_center[0]+resized_hat_w//3*2)] = add_hat
# 展示效果
# cv2.imshow("img",img )
# cv2.waitKey(0)
return img
調用函數
# 讀取帽子圖,第二個參數-1表示讀取為rgba通道,否則為rgb通道
hat_img = cv2.imread("hat2.png",-1)
# 讀取頭像圖
img = cv2.imread("test.jpg")
output = add_hat(img,hat_img)
# 展示效果
cv2.imshow("output",output )
cv2.waitKey(0)
cv2.imwrite("output.jpg",output)
最后我得到的頭像效果還可以,如下:
圣誕是來不及了,大家新年快樂!
以上