一種人臉黑名單監測方法
【專利摘要】一種人臉黑名單監測方法,其結合全局特征和局部特征,首先訓練多角度人臉模板用于人臉檢測;在此基礎上檢測人臉部分五官關鍵點并定位;進一步地,對人臉進行歸一化后,分別針對人臉完整區域提取Gabor特征,針對局部區域提取LDP特征;最后進行融合全局與局部特征的人臉相似度計算,實現人臉黑名單監測。本發明既保留人臉全局相似性,又體現局部差異性,可更好地反映人臉特性。
【專利說明】
-種人臉黑名單監測方法
技術領域
[0001] 本發明屬于人臉識別技術領域,具體設及一種基于人臉識別的黑名單監測方法。
【背景技術】
[0002] 隨著視頻監控系統的大規模應用,在車站、機場、街道等重要場所安裝有大量監控 攝像機,可獲得充足的人員面部視頻圖像,從而使得基于人臉識別的黑名單監測成為可能, 在公共安全管理等領域有重要應用前景。其關鍵技術是面向監控視頻的人臉識別,相關算 法的優劣直接決定人臉黑名單監測的效果和速度。
[0003] 現有的人臉識別方法,如公開號為104899576A,申請號為201510350083.1,其公開 了一種基于Gabor變換和冊G的人臉識別特征提取方法。該方法首先對含人臉圖像進行提取 并歸一化,通過生成40個不同方向大小的Gabor濾波器對歸一化人臉進行分別濾波,得到多 個方向和大小的Gabor特征,隨后對得到的Gabor特征進行HOG處理,進一步得到Gabor特征 的梯度直方圖信息,使得Gabor濾波結果增強。
[0004] 公開號為104700089A,申請號為201510134189.8,其公開了一種基于Gabor小波和 SB2化PP的人臉識別方法,該方法主要包括預處理、特征提取、特征降維和分類識別四個步 驟。(1)對已知的人臉庫中所有的人臉圖像進行預處理,包括尺度歸一化和直方圖均衡化; (2)利用Gabor小波對預處理過的人臉圖像進行特征提取;(3)引入類別信息,對步驟(2)提 取到的高維圖像特征應用有監督的雙向二維局部保持投影(SB2化PP)算法進行降維,從而 提取出映射到低維子空間的特征矩陣;(4)采用最近鄰分類器進行分類識別。
[0005] 公開號為103679151A,申請號為201310703205.1,其公開了一種融合LBP、Gabor特 征的人臉聚類方法,步驟包括:將圖像的R、G、BS個通道轉換為灰度圖,得到圖像LGabor特 征提取;LBP特征提取;分層人臉聚類等。
[0006] 公開號為104820844A,申請號為201510183686.7,提供一種人臉識別方法,包括: 對模板人臉圖像和待識別人臉圖像進行Gabor小波人臉圖像特征提取,獲得圖像特征;將由 所述待識別人臉圖像獲得的圖像特征分成正負樣本;使用Adaboost對所述正負樣本進行特 征選擇,獲得明顯特征,使用Adaboost對由所述人臉圖像獲得的圖像特征進行特征選擇,獲 得特征子空間;使用環形對稱劃分的SVM對所述特征子空間進行特征訓練獲得ECC編碼矩 陣;使用環形對稱劃分的SVM及所述ECC編碼矩陣對所述明顯特征進行特征匹配。
[0007] 公開號為102737234A,申請號為201210212659.4,公開了一種基于Gabor濾波和聯 合稀疏模型的人臉識別方法,該方法首先通過Gabor濾波對人臉圖像進行濾波,提取對光照 及表情不敏感的特征,然后利用提取出的Gabor特征作為聯合稀疏模型的輸入,提取每類訓 練圖像的公有部分及私有部分的和;最后利用所提取的公有部分及私有部分的和來構造字 典,采用SRC(稀疏表示分類)方法獲得待識別人臉圖像在構造字典上的稀疏表示,根據稀疏 表示系數得到識別結果。
[000引上述方法主要WGabor特征為基礎提取人臉特征,各有優點,但都是針對人臉全局 特征進行處理,忽視了人臉局部差異,因此存在一定的缺陷。同時針對人臉識別領域一直存 在的角度、光照等影響,魯棒性不佳的缺陷。
【發明內容】
[0009] 針對現有技術存在的問題,本發明提出一種人臉黑名單監測方法。該結合全局特 征和局部特征,首先訓練多角度人臉模板用于人臉檢測;在此基礎上檢測人臉部分五官關 鍵點并定位;進一步地,對人臉進行歸一化后,分別針對人臉完整區域提取Gabor特征,針對 局部區域提取LDP特征;最后進行融合全局與局部特征的人臉相似度計算,實現人臉黑名單 監測。
[0010] -種人臉黑名單監測方法,包括W下步驟:
[0011] Sl:基于多角度人臉檢測分類器,檢測人臉區域;
[0012] S2:針對人臉區域,檢測部分五官特征點;
[0013] S3:基于部分五官特征點坐標,實現人臉歸一化;
[0014] S4:針對歸一化后的完整人臉提取Gabor特征;
[0015] S5:針對歸一化后的部分五官區域提取LDP特征;
[0016] S6:計算人臉相似度,實現黑名單監測。
[0017]其中,步驟Sl中是利用多角度人臉訓練基于化ar特征和Adaboost分類器的人臉檢 測分類器。具體包括W下步驟:
[0018] Sl. 1:利用常規視頻圖像采集設備(監控攝像機、相機等等具有視頻采集功能的設 備),分別采集正面人臉、正面人臉向左水平偏轉5度,10度,正面人臉向右水平偏轉5度,10 度,正面人臉向上偏轉5度,10度,正面人臉向下偏轉5度,10度的圖像,每個角度的人臉圖像 不少于1000幅;
[0019] SI. 2:針對每種角度圖像,人工裁剪人臉區域,并縮放至128X128像素,作為正樣 本;
[0020] SI.3:采集同樣數量的不含人臉圖像,作為負樣本;
[0021] SI. 4:針對每種角度圖像,訓練其基于化ar特征和Adaboost分類器的人臉檢測分 類器。
[0022] 步驟S2中,針對步驟Sl中檢測到的人臉區域,基于Flandmark方法檢測人臉部分五 官關鍵點。參照圖2,本發明中人臉部分五官關鍵點包括7個,第一個五官關鍵點為鼻尖0、第 二個五官關鍵點為左眼右眼角1、第S個五官關鍵點為右眼左眼角2、第四個五官關鍵點為 左嘴角3、第五個五官關鍵點為右嘴角4、第六個五官關鍵點為左眼左眼角5和第屯個五官關 鍵點為右眼右眼角6;其中0、1、2、3、4、5、6分別為第一個五官關鍵點至第屯個五官關鍵點對 應的序號。其中:Flandmark方法可W參考文獻:Michal U ri c'a r,Vojt ech Franc and V^aclav Hlav^a c.Detector of Facial Landmarks Learned by The Structured Output Svm. International Conference on ComputerV i s ion Theory andApplications.2012,547~556.
[0023] 步驟S3中,在步驟S2提取人臉部分五官關鍵點的基礎上,將人臉部分中包含人臉 部分五官關鍵點、眉毛、鼻子、嘴己的正方形區域定義為人臉核屯、區域,如圖3中的方框W內 的區域就是人臉核屯、區域。
[0024] 計算核屯、人臉區域坐標,并將核屯、人臉區域縮放為128X128像素的灰度圖像。具 體步驟為:
[0025] S3.1:計算人臉核屯、區域寬度化ce_wi化h、高度化cejiei曲t分別為:
[0026] !^ice-Width=(Pe-X-PS-X) X 1.6
[0027] !^iceJiei 曲I=^ce-Wi 化 h
[0028] S3.2:計算人臉核屯、區域左上角起始點坐標為:
[0029] 化Ce. x = P5. x-(P6. X-P5. X) X 0.3
[0030] 化Ce.y = P5.y-(P6. X-P5. X) X 0.3
[0031] 其中:Pi.x,Pi.y分別表示序號為i五官關鍵點的橫、縱坐標,如P6.X表示圖2中序 號為6的五官關鍵點(即右眼右眼角)的橫坐標,P5.X表示圖2中序號為5的五官關鍵點(即左 眼左眼角)的橫坐標,P5.y表示圖2中序號為5的五官關鍵點(即左眼左眼角)的縱坐標。
[0032] 步驟S4中,令步驟S3提取到歸一化人臉灰度圖像為I,使用Gabor變換在0~3四個 尺度,1~6六個鄰域方向對I做卷積運算,然后提取其全臉Gabor特征。
[0033] 步驟S5的具體步驟包括:
[0034] S5.1針對原始視頻監控圖像,基于五官關鍵點獲取左眼區域,令其寬度為 Leye .width,高度為Leye.hei曲t,中屯、橫坐標為Leye . X,中屯、縱坐標為Leye. y,計算方法 為:
[0035] Leye-Width = Pl .X-P5.X
[0036] Leye .hei 邑 ht = Leye .Wi 化 h
[0037] Leye.x = P5.x
[003引 Leye.y = P5.y-Leye.height/2
[0039] 然后將左眼區域圖像縮放至50X50像素的灰度圖像;
[0040] S5.2:針對原始視頻監控圖像,基于五官關鍵點獲取右眼區域,令其寬度為 Reye .width,高度為Reye.hei曲t,中屯、橫坐標為Reye . X,中屯、縱坐標為Reye. y,計算方法 為:
[0041] Reye.width = P6.x-P2.x
[0042] Reye .height = Reye .width
[0043] Reye.x = P2.x
[0044] Reye.y = P2.y-Reye.height/2
[0045] 然后將右眼區域圖像縮放至50X50像素的灰度圖像;
[0046] S5.3:針對原始視頻監控圖像,基于五官關鍵點獲取鼻尖區域,令其寬度為 Nose .width,高度為Nose .hei曲t,中屯、橫坐標為Nose . X,中屯、縱坐標為Nose. y,計算方法 為:
[0047] Nose. width = P6. x~P2. x [004引 Nose .hei 曲 t = Nose .wi 化 h [0049] Nose. x = P0. x-Nose. width/2 [0化0] Nose.y = PO.y-Nose.hei 曲 t/2
[0051] 然后將鼻尖區域圖像縮放至50X50像素的灰度圖像;
[0052] S5.4:針對原始視頻監控圖像,基于五官關鍵點獲取嘴己區域,令其寬度為 Mouth. Wi化h,高度為Mouth. height,中屯、橫坐標為Mouth. X,中屯、縱坐標為Mouth. y,計算方 法為:
[0053] Mouth.width = P4.x-P3.x
[0054] Mouth.height=Mouth.wi 化 h
[0055] Mouth.x = P3.x
[0056] Mouth. y = P3. y-Mouth. he i 曲 t/2
[0057] 然后將嘴己區域圖像縮放至50X50像素的灰度圖像;
[005引S5.5 :分別針對步驟S5.1至S5.4中所述的4個區域,提取其局部定向模式化ocal Derivative F*atte;rn,LDP)特征,得到四個局部LDP特征。
[0059] 步驟S6的具體步驟包括:
[0060] S6.1:針對視頻監控系統中獲得每一帖圖像,分別采取步驟Sl至S5的方法,提取其 全臉 Gabor 特征 Fiea1:ure 日和四個局部 LDP 特征 Fiea1:urei、Fiea1:ure2、Fiea1:ure3、Fiea1:ure4;
[0061] S6.2:針對黑名單中的人臉,分別采取步驟SI至S5的方法,提取其核屯、人臉區域的 全臉Gabor特征F2eatureo,和四個局部區域LDP特征F2eaturei、F 2eature2、F2eature3、 F^eature4;
[0062] S6.3:針對步驟S6.1和S6.2中獲得的5種特征,分別計算監控視頻圖像人臉與黑名 單人臉的歐式距離,令其為化,i = 0,1,2,…,4,分別表示全局Gabor特征、局部LDP特征的歐 氏距離;
[0063] S6.4:計算上述5種特征基于歐氏距離的相似度
[0064]
[0065] S6.5:計算5種相似度的平均值
[0066]
[0067] S6.6:設定相似度闊值Fth,本發明Fth=O.88,如果吾>,則判斷視頻人臉與黑名 單人臉高度相似,返回監測結果。
[0068] 與現有技術相比,本發明的優點在于:
[0069] 1、在人臉檢測環節分別調用多角度人臉分類器進行檢測,可有效減輕角度對人臉 檢測的影響。
[0070] 2、相對于傳統方法基于人臉檢測后的籠統區域進行尺寸歸一化,人臉部分五官關 鍵點可W更精確地標定人臉位置,從而有利于提高后續處理精度。
[0071] 3、本發明既保留人臉全局相似性,又體現局部差異性,可更好地反映人臉特性。
【附圖說明】
[0072] 圖1為本發明的流程圖;
[0073] 圖2為本發明中人臉關鍵點序號示意圖;
[0074] 圖3為本發明人臉核屯、區域示意圖
[0075] 圖4為本發明實施例中采集的原始監控視頻圖像
[0076] 圖5為本發明實施例中獲得的人臉區域圖
[0077] 圖6示出了本發明實施例中人臉區域內的五官關鍵點
[0078] 圖7為本發明實施例中獲得的臉部核屯、區域灰度圖像
[0079] 圖8為本發明實施例中獲得的局部灰度圖像(左眼區域)
[0080] 圖9為本發明實施例中獲得的局部灰度圖像(右眼區域)
[0081] 圖10為本發明實施例中獲得的局部灰度圖像(鼻尖區域)
[0082] 圖11為本發明實施例中獲得的局部灰度圖像(嘴唇區域)
[0083] 圖12為本發明實施例中黑名單人臉圖像
[0084] W下將結合附圖和具體實施例對本發明作進一步詳細說明。
【具體實施方式】
[0085] 如圖1所示,本發明一種人臉黑名單監測方法,包括W下步驟:
[0086] Sl:基于多角度人臉檢測分類器,檢測人臉區域;
[0087] SI. 1:利用常規視頻圖像采集設備,分別采集正面人臉、正面人臉向左水平偏轉5 度,10度,正面人臉向右水平偏轉5度,10度,正面人臉向上偏轉5度,10度,正面人臉向下偏 轉5度,10度的圖像,每個角度的人臉圖像不少于1000幅;
[0088] SI. 2:針對每種角度圖像,人工裁剪人臉區域,并縮放至128X128像素,作為正樣 本;
[0089] SI.3:采集同樣數量的不含人臉圖像,作為負樣本;
[0090] SI. 4:針對每種角度,訓練其基于化ar特征和Adaboost分類器的人臉檢測分類器。
[0091] S2:針對人臉區域,檢測部分五官特征點;
[0092] 針對前一步驟檢測到的人臉區域,基于Flandmark方法檢測人臉部分五官關鍵點, 其序號如圖2所示。
[0093] S3:基于部分五官特征點坐標,實現人臉歸一化;
[0094] 在S2中,提取到人臉部分五官關鍵點,在此基礎上,將涵蓋眉毛、眼睛、鼻子、嘴唇 的區域定義為人臉核屯、區域,如圖3中的方框區域所示:
[00M]計算該核屯、人臉區域坐標,并將該區域縮放為128X128像素的灰度圖像。具體步 驟為:
[0096] Stepl:計算人臉核屯、區域寬度化。6_¥;[化h、高度!^iceJiei曲t分別為:
[0097] !^ice-Width=(Pe-X-PS-X) X 1.6 [009引!^iceJiei 曲I=^ce-Wi 化 h
[0099] Step2:計算人臉核屯、區域左上角起始點坐標為:
[0100] 化Ce. x = P5. x-(P6. X-P5. X) X 0.3 [0101 ] Face.y = P5.y-(P6. x-P5. x) X 0.3
[0102] 其中:Pi.x,Pi.y分別表示第i個五官關鍵點的橫、縱坐標,i為圖2中定義的各五官 關鍵點的序號。
[0103] 本發明針對部分五官關鍵點進行尺度歸一化,其創新點在于:
[0104] 相對于傳統方法基于人臉檢測后的籠統區域進行尺寸歸一化,人臉部分五官關鍵 點可W更精確地標定人臉位置,從而有利于提高后續處理精度。
[01化]S4:針對歸一化后的完整人臉提取Gabor特征;
[0106]令前一步驟提取到歸一化人臉灰度圖像為I,使用Gabor變換在0~3四個尺度,1~ 6六個鄰域方向對I做卷積運算,然后提取其全臉Gabor特征。
[0107] S5:針對歸一化后的部分五官區域提取LDP特征;
[010引S5.1:針對原始圖像,基于五官關鍵點獲取左眼區域,令其寬度為Leye. width,高 度為Leye. hei曲t,中屯、橫坐標為Leye. X,中屯、縱坐標為Leye. y,計算方法為:
[0109] Leye. Width = Pl. X-P5. X
[0110] Leye .hei 邑 ht = Leye .width
[0111] Leye.x = P5.x
[0112] Leye.y = P5.y-Leye.height/2
[0113] 然后將左眼區域圖像縮放至50X50像素的灰度圖像;
[0114] S5.2:針對原始圖像,基于五官關鍵點獲取右眼區域,令其寬度為Reye. width,高 度為Reye. hei曲t,中屯、橫坐標為Reye. X,中屯、縱坐標為Reye. y,計算方法為:
[0115] Reye.width = P6.x-P2.x
[0116] Reye .hei 邑 ht = Reye .width
[0117] Reye.x = P2.x
[011 引 Reye.y = P2.y-Reye.height/2
[0119] 然后將右眼區域圖像縮放至50X50像素的灰度圖像;
[0120] S5.3:針對原始圖像,基于五官關鍵點獲取鼻尖區域,令其寬度為Nose. width,高 度為Nose. hei曲t,中屯、橫坐標為Nose. X,中屯、縱坐標為Nose. y,計算方法為:
[0121] Nose. width = P6. x~P2. x
[0122] Nose .hei曲t = Nose .wi化h
[0123] Nose. x = P0. x-Nose. width/2
[0124] Nose.y = P0.y-Nose.hei曲t/2
[0125] 然后將鼻尖區域圖像縮放至50X50像素的灰度圖像;
[01%] S5.4:針對原始圖像,基于五官關鍵點獲取嘴己區域,令其寬度為Mouth.Wi化h,高 度為Mouth. height,中屯、橫坐標為Mouth. X,中屯、縱坐標為Mouth. y,計算方法為:
[0127] Mouth.width = P4.x-P3.x [012 引 Mouth.height=Mouth.wWth
[0129] Mouth.x = P3.x
[0130] Mouth. y = P3. y-Mouth. hei 曲 t/2
[0131] 然后將嘴己區域圖像縮放至50X50像素的灰度圖像;
[0132] S5.5:分別針對上述4個區域,提取其局部定向模式化ocal Derivative化ttern, LDP)特征。
[0133] S6:計算人臉相似度,實現黑名單監測。
[0134] S6.1:針對視頻監控系統中獲得每一帖圖像,分別進行步驟Sl至S5,提取其全臉 Gabor 特征 Fiea1:ure 日和四個局部 LDP 特征 Fiea1:urei、Fiea1:ure2、Fiea1:ure3、Fiea1:ure4;
[0135] S6.2:針對黑名單中的人臉,分別進行步驟SI至S5,提取其核屯、人臉區域的全臉 Gabor 特征 F2ea1:ureo,和四個局部區域 LDP 特征 F2ea1:urei、F2ea1:ure2、F2ea1:ure3、F 2ea1:ure4;
[0136] S6.3:針對上述5種特征,分別計算監控視頻圖像人臉與黑名單人臉的歐式距離, 令其為Di,i = 0,1,2,…,4,分別表示全局Gabor特征、局部LDP特征的歐氏距離。此進行說 明:兩張臉(監控視頻圖像人臉與黑名單人臉)各有一個全局Gabor特征向量,計算運兩個之 間的歐氏距離;兩張臉的右眼部分各有一個LDP特征向量,計算運兩個之間的歐氏距離,同 樣的兩張臉的左眼、鼻子、嘴己也是如此。
[0137] S6.4:計算上述5種特征基于歐氏距離的相似度
[013 引
[0139] S6.5:計算5種相似度的平均值
[0140]
[0141] S6.6:設定相似度闊值Fth,如果5 > Gi,.則判斷視頻人臉與黑名單人臉高度相似, 返回監測結果。
[0142] 實施例1:
[0143] SI.如圖4所示,針對監控視頻中的一帖監控視頻圖像。
[0144] S2.對Sl中的原始監控視頻圖像進行人臉檢測,獲得人臉區域如圖5所示。
[0145] S3.在步驟S2中得到的人臉區域內,利用Flandmark方法檢測五官關鍵點,得到的 五官關鍵點如圖6所示。
[0146] S4.基于五官關鍵點,裁剪并縮放得到尺寸歸一化的臉部核屯、區域灰度圖像如圖7 所示。
[0147] S5.基于五官關鍵點,裁剪并縮放得到尺寸歸一化的臉部局部灰度圖像,分別如圖 8、9、10、11所示。
[014引S6、針對圖7所示的臉部核屯嘔域圖像,計算其Gabor特征為Fieatureo,針對圖8~ 圖11的臉部局部圖像,分別計算其LDP特征為Fiea1:urei、Fiea1:ure2、Fiea1:ure3、Fiea1:ure4,記 ^Fi= {F^eatureojF^eaturei ,F^eature2,F^eatures,F^eature4} 0
[0149] S7、假設黑名單中某一張人臉圖像如圖12所示.按照SI~S6的步驟進行處理,獲取 該人臉的特征為F2= {F2ea1:ureo,F2ea1:urei ,F2ea1:ure2,F2ea1:ure3,F2ea1:ure4}。
[0150] S7、分別計算Fi與F2對應元素的歐氏距離,記為化,i = 0,I,2,3,4。
[0151] S8、計算5種特征基于歐氏距離的相似度
[0152]
[0153] 計算相似度的平均值
[0154]
[0巧5]最終計算出的平均相似度;92。
[0156] S9、因為S>Fd,,因此判斷監控視頻圖像中的人臉在黑名單中。
【主權項】
1. 一種人臉黑名單監測方法,其特征在于:包括以下步驟: S1:基于多角度人臉檢測分類器,檢測人臉區域; S2:針對人臉區域,檢測部分五官特征點; S3:基于部分五官特征點坐標,實現人臉歸一化; S4:針對歸一化后的完整人臉提取Gabor特征; S5:針對歸一化后的部分五官區域提取LDP特征; S6:計算人臉相似度,實現黑名單監測。2. 根據權利要求1所述的人臉黑名單監測方法,其特征在于,步驟S1中是利用多角度人 臉訓練基于Haar特征和Adaboost分類器的人臉檢測分類器,包括以下步驟: SI. 1:利用視頻圖像采集設備分別采集正面人臉、正面人臉向左水平偏轉5度,10度,正 面人臉向右水平偏轉5度,10度,正面人臉向上偏轉5度,10度,正面人臉向下偏轉5度,10度 的圖像,每個角度的人臉圖像不少于1 〇〇〇幅; S1.2:針對每種角度圖像,人工裁剪人臉區域,并縮放至128X128像素,作為正樣本; S1.3:采集同樣數量的不含人臉圖像,作為負樣本; S1.4:針對每種角度圖像,訓練其基于Haar特征和Adaboost分類器的人臉檢測分類器。3. 根據權利要求2所述的人臉黑名單監測方法,其特征在于,步驟S2中,針對步驟S1中 檢測到的人臉區域,基于Flandmark方法檢測人臉部分五官關鍵點,人臉部分五官關鍵點包 括7個,第一個五官關鍵點為鼻尖、第二個五官關鍵點為左眼右眼角、第三個五官關鍵點為 右眼左眼角、第四個五官關鍵點為左嘴角、第五個五官關鍵點為右嘴角、第六個五官關鍵點 為左眼左眼角和第七個五官關鍵點為右眼右眼角。4. 根據權利要求3所述的人臉黑名單監測方法,其特征在于,步驟S3中,在步驟S2提取 人臉部分五官關鍵點的基礎上,將人臉部分中包含人臉部分五官關鍵點、眉毛、鼻子、嘴巴 的正方形區域定義為人臉核心區域,然后計算核心人臉區域坐標,并將核心人臉區域縮放 為128 XI28像素的灰度圖像,具體步驟為: S3.1:計算人臉核心區域寬度Face_width、高度Face_height分別為: Face_width= (P6.χ-Ρ5.x) X 1.6 Face-height = Face-width S3.2:計算人臉核心區域左上角起始點坐標為: Face.χ = Ρ5.χ-(Ρ6.χ-Ρ5.x) X0.3 Face.y = P5.y-(P6.χ-Ρ5.x) X0.3 其中:Pi . x,Pi . y分別表示序號為i的五官關鍵點的橫、縱坐標。5. 根據權利要求4所述的人臉黑名單監測方法,其特征在于,步驟S4中,令步驟S3提取 到歸一化人臉灰度圖像為I,使用Gabor變換在0~3四個尺度,1~6六個鄰域方向對I做卷積 運算,然后提取其全臉Gabor特征。6. 根據權利要求5所述的人臉黑名單監測方法,其特征在于,步驟S5的方法是: S5.1針對原始視頻監控圖像,基于五官關鍵點獲取左眼區域,令其寬度為Leye. width, 高度為Leye. height,中心橫坐標為Leye. x,中心縱坐標為Leye. y,計算方法為: Leye .width = Pl .χ-Ρ5 .x Leye .height = Leye .width Leye .x = P5 .x Leye .y = P5 .y-Leye .height/2 然后將左眼區域圖像縮放至50X50像素的灰度圖像; S5 . 2:針對原始視頻監控圖像,基于五官關鍵點獲取右眼區域,令其寬度為 Reye .width,高度為Reye .height,中心橫坐標為Reye . X,中心縱坐標為Reye. y,計算方法 為: Reye .width = P6 .χ-Ρ2 .X Reye.height = Reye.width Reye .x = P2 .x Reye .y = P2 .y-Reye .height/2 然后將右眼區域圖像縮放至50X50像素的灰度圖像; S5 .3 :針對原始視頻監控圖像,基于五官關鍵點獲取鼻尖區域,令其寬度為 Nose .width,高度為Nose .height,中心橫坐標為Nose . X,中心縱坐標為Nose. y,計算方法 為: Nose .width = Ρ6 .χ-Ρ2 .X Nose.height = Nose.width Nose .x = P0 .χ-Nose .width/2 Nose .y = P0 .y-Nose .height/2 然后將鼻尖區域圖像縮放至50X50像素的灰度圖像; S5. 4:針對原始視頻監控圖像,基于五官關鍵點獲取嘴巴區域,令其寬度為 Mouth. width,高度為Mouth. height,中心橫坐標為Mouth. X,中心縱坐標為Mouth. y,計算方 法為: Mouth.width = P4.χ-Ρ3.χ Mouth. height=Mouth .width Mouth. x = P3.x Mouth·y = P3·y-Mouth·he i ght/2 然后將嘴巴區域圖像縮放至50X50像素的灰度圖像; S5.5:分別針對步驟S5.1至S5.4中所述的4個區域,提取其局部LDP特征,得到四個局部 LDP特征。7.根據權利要求6所述的人臉黑名單監測方法,其特征在于,步驟S6的方法是: S6.1:針對視頻監控系統中獲得每一幀圖像,分別采取步驟S1至S5的方法,提取其全臉 Gabor 特征 Fkatureo 和四個局部 LDP 特征 FieaturehF^ature〗、Features hF^aturew S6.2:針對黑名單中的人臉,分別采取步驟S1至S5的方法,提取其核心人臉區域的全臉 Gabor 特征 F2eatureo,和四個局部區域 LDP 特征 F2eaturei、F2eature2、F2eature3、F 2eature4; S6.3:針對步驟S6.1和S6.2中獲得的5種特征,分別計算監控視頻圖像人臉與黑名單人 臉的歐式距離,令其為01,1 = 0,1,2,-_,4,分別表示全局6&13(^特征、局部0^特征的歐氏距 離; S6.4:計算上述5種特征基于歐氏距離的相似度S6.5:計算5種相似度的平均值S6.6:設定相似度閾值Fth,如果5 2 &,則判斷視頻人臉與黑名單人臉高度相似,返回 監測結果。8.根據權利要求7所述的人臉黑名單監測方法,其特征在于,步驟S6.6中的Fth=0.88。
【文檔編號】G06K9/00GK105956552SQ201610280859
【公開日】2016年9月21日
【申請日】2016年4月29日
【發明人】謝劍斌, 李沛秦, 閆瑋, 劉通, 田凱文
【申請人】中國人民解放軍國防科學技術大學, 湖南智慧平安科技有限公司