主要參考Stack Overflow的問答
xaedes的回答更實用, 貼出代碼:
def subimage(image, center, theta, width, height):
theta *= np.pi / 180 # convert to rad
v_x = (np.cos(theta), np.sin(theta))
v_y = (-np.sin(theta), np.cos(theta))
s_x = center[0] - v_x[0] * (width / 2) - v_y[0] * (height / 2)
s_y = center[1] - v_x[1] * (width / 2) - v_y[1] * (height / 2)
mapping = np.array([[v_x[0],v_y[0], s_x],
[v_x[1],v_y[1], s_y]])
return cv2.warpAffine(image,mapping,(width, height),flags=cv2.WARP_INVERSE_MAP,borderMode=cv2.BORDER_REPLICATE)
算法原理
發現這個cv2.warpAffine是個很強大的函數, 要扣明白了,找到了CSDN博文:圖像的幾何變換
很詳細了, 就不轉了!
參數說明在這篇博文
摘錄相關部分:
仿射變換cv2.warpAffine()
cv2.warpAffine(src, M, dsize[, dst[, flags[, borderMode[, borderValue]]]]) → dst
非關鍵字參數有src, M, dsize,分別表示源圖像,變換矩陣,變換后的圖像的長寬
這里說一下放射變換的變換矩陣
位移變換矩陣為:
旋轉變換矩陣:
標準旋轉變換矩陣為
,但該矩陣沒有考慮旋轉變換時進行位移以及縮放操作,OpenCV中的旋轉變換如下:
OpenCV中提供了一個函數獲得這樣一個矩陣
M=cv2.getRotationMatrix2D(rotate_center, degree, scale)
rotate_center為一個2元的元組,表示旋轉中心坐標,degree表示逆時針旋轉的角度,scale表示縮放的比例
更詳細的參數介紹還是看官方文檔
放兩條OpenCV筆記
img_pil = Image.fromarray(cv2.cvtColor(img_cv, cv2.COLOR_BGR2RGB))
pil_image = PIL.Image.open('Image.jpg').convert('RGB')
open_cv_image = numpy.array(pil_image)
# Convert RGB to BGR
open_cv_image = open_cv_image[:, :, ::-1].copy()