示例代碼下載
Core Image可以分析和查找圖像中的人臉。它執行面部檢測,而不是識別。人臉檢測是包含人臉特征的矩形的識別,而人臉識別是特定人臉(約翰,瑪麗等)的識別。在Core Image檢測到面部后,它可以提供有關面部特征的信息,例如眼睛和嘴巴位置。它還可以跟蹤視頻中已識別面部的位置。
image
了解人臉在圖像中的位置可讓您執行其他操作,例如裁剪或調整臉部圖像質量(色調平衡,紅眼校正等)。您還可以在臉上執行其他有趣的操作; 例如:
- 匿名面部濾鏡處理顯示如何僅將像素濾鏡應用于圖像中的面部。
- 白色插圖面部濾鏡處理顯示如何在臉部周圍放置小插圖。
注意: 面部檢測適用于iOS v5.0及更高版本以及OS X v10.7及更高版本。
面部檢測
使用CIDetector該類在圖像中查找面部,如清單2-1所示。
清單2-1 創建面部檢測器
CIContext *context = [CIContext context]; // 1
NSDictionary *opts = @{ CIDetectorAccuracy : CIDetectorAccuracyHigh }; // 2
CIDetector *detector = [CIDetector detectorOfType:CIDetectorTypeFace
context:context
options:opts]; // 3
opts = @{ CIDetectorImageOrientation :
[[myImage properties] valueForKey:kCGImagePropertyOrientation] }; // 4
NSArray *features = [detector featuresInImage:myImage options:opts]; // 5
這是代碼的作用:
- 使用默認選項創建上下文。您可以使用處理圖像中描述的任何函數創建上下文。您還可以在創建檢測器時選擇nil而不是提供上下文。
- 創建選項字典以指定檢測器的準確度。您可以指定低精度或高精度。精度低(CIDetectorAccuracyLow)快; 如本例所示,高精度是周密但較慢的。
- 創建面部檢測器。您可以創建探測器的唯一類型是人臉。
- 設置用于查找面的選項字典。讓Core Image了解圖像方向非常重要,這樣探測器才能知道它可以在哪里找到直立面。大多數情況下,您將從圖像本身讀取圖像方向,然后將該值提供給選項字典。
- 使用檢測器查找圖像中的特征。您提供的圖像必須是CIImage對象。Core Image返回一個CIFeature對象數組,每個對象代表圖像中的一個面。
在獲得一系列面孔后,您可能想要找出它們的特征,例如眼睛和嘴巴的位置。接下來的部分將介紹。
獲得面部和面部特征位置
面部特征包括:
- 左眼和右眼的位置
- 嘴巴的位置
- 跟蹤ID和跟蹤幀數,Core Image用于跟蹤視頻片段中的臉部(適用于iOS v6.0及更高版本以及OS X v10.8及更高版本)
從CIDetector對象獲取面部特征數組后,可以遍歷數組以檢查每個面部的位置以及面部中的每個特征,如清單2-2所示。
清單2-2 檢查面部特征邊界
for (CIFaceFeature *f in features) {
NSLog(@"%@", NSStringFromRect(f.bounds));
if (f.hasLeftEyePosition) {
NSLog(@"Left eye %g %g", f.leftEyePosition.x, f.leftEyePosition.y);
}
if (f.hasRightEyePosition) {
NSLog(@"Right eye %g %g", f.rightEyePosition.x, f.rightEyePosition.y);
}
if (f.hasMouthPosition) {
NSLog(@"Mouth %g %g", f.mouthPosition.x, f.mouthPosition.y);
}
}