中文字幕无码日韩视频无码三区

PCANet深度卷積模型的人臉身份識別方法

文檔序號(hao):9929820閱讀(du):806來源:國知局
PCANet深度卷積模型的人臉身份識別方法
【技術領域】:
[0001] 本發明屬于機器視覺領域,特別設及一種基于gb(2D)2pca化t深度卷積模型的人 臉身份識別方法。
【背景技術】:
[0002] 人臉識別技術是利用計算機分析人臉視頻或圖像,從中提取人臉特征,并通過運 些特征識別身份的一種技術。
[0003] 目前人臉身份識別技術發展較快,取得了大量的研究成果。常見的人臉身份識別 算法可分為幾類:基于幾何特征的人臉身份識別、基于子空間分析的人臉身份識別、基于彈 性匹配的人臉身份識別、基于隱馬爾可夫模型的人臉身份識別、基于神經網絡的人臉身份 識別和基于3D的人臉身份識別。如化katsugu等[1]使用一種基于動態鏈接結構的彈性匹配 法來定位人臉,并根據人臉數據庫進行匹配識別。Lin等[2]采用正反例樣本進行強化學習, 從而得到較為理想的概率估計結果,并采用模塊化的網絡結構加快網絡的學習速度。雖然 人臉身份識別研究已積累了寶貴的豐富經驗,但目前的識別技術仍然不能對諸如人臉自身 及所處環境的復雜性等情況進行有效的處理,如表情、姿態、光照強度等條件的變化W及人 臉上的遮擋物,都會使人臉身份識別方法的魯棒性受到很大的影響。
[0004] 本發明針對上述人臉身份識別存在的問題,提出了一種基于GB(SD)2PCANet深度 卷積模型的人臉身份識別方法,不僅吸取了深度模型和Gabor濾波的優點,可W提取數據中 更加抽象的特征,對光照、表情、遮擋等因素具有魯棒性,而且克服了卷積神經網絡耗時及 標簽數目需求量大的缺點。

【發明內容】

[0005] 本發明的主要目的是提出一種基于GB(SD)2PCANet深度卷積模型的人臉身份識別 方法,在極大減少光照、表情、遮擋等因素干擾的同時,能夠高效地進行人臉識別。
[0006] 為了實現上述目的,本發明提供如下技術方案,包含訓練階段和測試階段。
[0007] 基于GB(SD)2PCANet深度卷積模型的人臉身份識別方法訓練階段技術方案如下:
[0008] 步驟一、對已知人臉庫中的訓練集人臉圖像進行預處理,包括轉化成灰度圖和調 整圖像尺寸到相同大小P X q;
[0009] 步驟二、將訓練樣本依次送入GB(2D)2PCANet模型的第一個特征提取層,獲取第一 個特征提取層的Gabor特征圖像;具體地,令{布摧1表示人臉圖像訓練集,其中N為訓練集 中的樣本數,Zlf G IRPXq表示一張人臉樣本圖像;將每個樣本Al依次送入第一個特征提取 層,首先進行5個尺度和8個方向結合的2D Gabor濾波,通過降采樣,得到最終的Gabor特征 圖像[3],記為[巧其中孩f巨脫是特征圖像降采樣后的像素個數,t是2D Gabor 濾波器的個數,t = 40;
[0010 ]步驟S、對每個Gabor特征圖像Bi,掃描提取m X n個11 X 12大小的圖像塊,對圖像塊 進行去均值操作,獲福
其中表示Bi中第j個去均值圖像塊; 所有G a b O r特征圖像經過相同的處理之后,可得到樣本矩陣
,為了方便描述,用連續的序號表 示I中所有的圖像塊并重記為
[OOW 步驟四、利用基于(2D)2PCA的特征投影向量分析方法[4],同時從行、列兩個方向 提取樣本矩陣I的最優投影軸,作為第一層特征提取階段卷積濾波器,化為第一 層卷積濾波器的個數;
[001。 步驟五、將步驟四學習到的卷積濾波器{Wn.}擔1與訓練集人臉原始圖像掏摧1 分別卷積,得到NXNi個特征圖鞭L恥斯]対1外,其中巧它賊鄰;
[OOK]步驟六、將步驟五得到的每個訓練樣本A擁應的特征圖{7/?己1作為第二個特征 提取層輸入,利用與步驟=至步驟五同樣的特征學習方法,依次學習第二層的(人臉區分性 特征)卷積濾波器{W,N2為第二層卷積濾波器的個數;并用卷積濾波器 {W打2境=1與步驟五得到的特征圖觀'}脫[1斯],詞l,JV]分別卷積4躬的乂化><化個第二層 特征圖{巧"2}啡州,巧巨.[1典1],打.2€[1所2.].,其中口;;'''2巨股趴9;
[0014] 步驟屯、對步驟六中得到的每個訓練樣本A 1對應的第二層特征圖 (啤。2}娜1馬]馬巧刷二值哈希編碼得到二值化特征圖{帶}左1;具體地,首先利用二 值哈希函數H( ?)將口二值化,其中,當輸入大于0時,H( ?)值為1,當 輸入小于或等于0時,H( ?)值為0;然后將所有由第二層的輸入i?(第一層中由訓練樣本Al 生成的第n個特征圖)二次卷積得到的化個二值化特征圖作為一組,將運化個二值化特征圖 同一像素位置的二進制數組成的二值向量并轉化為十進制數,從而得到一張整數值輸出圖 片r,其中i e [ 1,N],n e [ 1,化];因此單個樣本Al最終生成化個二值特征圖{Wf }n巧i,wi],所 有樣本(A. }f二1最終得到NXNi個二值特征圖押巧由円州,的1,WiJ;
[0015] 步驟八、針對每個二值特征圖Hf,其中1£[1,則,11£[1,化],^滑動窗的形式取 [6162]大小的塊,塊的重疊比例為〇,計算每個塊的統計直方圖,記為公/?/?^(巧^),然后將所 有由單個樣本Al生成的化個二值特征圖的局部區域的統計直方圖拼接起來, 得到人臉圖像Al的最終輸出特征巧=[公川如(耐),公巧),".,公W孔(巧Wi)];:
[0016] 步驟九、將步驟八得到的所有樣本{命摧1的輸出特征的推1送入Linear SVM分 類器中訓練,獲得基于GB(2D)2PCANet的最優Linear SVM的人臉身份識別分類模型。
[0017]基于GB(SD)2PCANet深度卷積模型的人臉身份識別方法的測試階段技術方案如 下:
[0018]步驟一:對待測試人臉圖像B進行預處理,包括轉化成灰度圖和調整圖像尺寸到相 同大小P Xq;
[0019]步驟二:與訓練階段類似,將待現聯人臉圖像B與訓練階段第一個特征提取層學習 到的第一層卷積濾波器己1分別卷積得到第一層的特征圖{護}"€^^^;
[0020] 步驟與訓練階段類似,步驟二輸出的特征圖作為第二個特征提取 層原始輸入,與訓練階段第二個特征提取層學習到的卷積濾波器分別卷積得 到第二層的輸出特征圖

[0021] 步驟四:與訓練階段類似,對步驟=得到的特征區
做二值 哈希編碼,統計局部區域直方圖,并將所有局部區域的統計直方圖拼接起來,作為人臉圖像 B的最終提取到的特征F;
[0022] 步驟五、將步驟四得到的圖像最終輸出特征F送入訓練好的Linear SVM分類器中 進行分類,獲得分類結果,即人臉識別結果。
[0023] 與現有的技術相比,本發明具有W下有益效果:
[0024] 1、本方法采用深度網絡結構的特征學習方法,吸取了深度學習網絡的優點,能夠 從數據中自動學習到有效的區分性特征表達,取代了手工提取特征,有效提高了自動人臉 身份識別的準確率;
[0025] 2、本方法提出的網絡結構具有平移、旋轉不變性。結合2D Gabor濾波和(2D)2PCA 卷積濾波器的學習,使得模型具有良好的局部特征表達能力,并且對光照、表情和噪音變體 具有較好的魯棒性,有效提升了復雜環境下人臉身份識別的健壯性和識別性能;
[0026] 3、傳統的深度卷積神經網絡W監督學習的方式進行訓練,不僅需要大量的標簽數 據,而且需要繁重的迭代學習。本方法采用無監督的學習方式,大大減少了運算量,提高了 系統的效率。
【附圖說明】:
[0027] 圖1基于GB(SD)2PCANet深度卷積模型的人臉身份識別方法特征學習框架;
[002引圖2在AR人臉庫上,GB(SD)2PCANet模型塊尺寸[bi b2]變化對遮擋的魯棒性;
[00巧]圖3在AR人臉庫上,GB(SD)2PCANet模型塊重疊比例a變化對識別率的影響。
【具體實施方式】
[0030] 為了更好的說明
當前第1頁1 2 3 4 
網友(you)詢問留言(yan) 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1