導讀:人臉識別主要包括一對一或者一對多的應(yīng)用場景,對目標人臉進行識別和驗證。
一、人臉識別技術(shù)介紹
人臉識別作為一種生物特征識別技術(shù),具有非侵擾性、非接觸性、友好性和便捷性等優(yōu)點。早在二十世紀初期,人臉識別已經(jīng)出現(xiàn),于二十世紀中期,發(fā)展成為獨立的學科。人臉識別真正進入應(yīng)用階段是在90年代后期。人臉識別屬于人臉匹配的領(lǐng)域,人臉匹配的方法主要包括特征表示和相似性度量。
人臉識別通用的流程主要包括人臉檢測、人臉裁剪、人臉校正、特征提取和人臉識別。人臉檢測是從獲取的圖像中去除干擾,提取人臉信息,獲取人臉圖像位置,檢測的成功率主要受圖像質(zhì)量,光線強弱和遮擋等因素影響。獲取人臉后,人臉裁剪是根據(jù)實際需求,裁剪部分或整體的人臉,進一步精確化人臉圖像。為提高人臉識別準確率,人臉校正可以盡可能的降低由于姿態(tài)和表情導致的人臉變化,獲取正面或者平靜狀態(tài)下的人臉照片。特征提取利用不同的特征,對圖片進行相似度的衡量和評價。人臉識別主要包括一對一或者一對多的應(yīng)用場景,對目標人臉進行識別和驗證。
人臉表達模型主要分為2D,2.5D,3D。2D人臉指的是RGB,灰度和紅外圖像,是確定視角下表征顏色或紋理的圖像,不包括深度信息。2.5D是在某一視角下拍攝獲取的人臉深度數(shù)據(jù),但是曲面信息不連續(xù),沒有被遮擋部分的深度數(shù)據(jù)信息。3D人臉由多張不同角度的深度圖像合成,具有完整連續(xù)的曲面信息,包含深度信息。2D圖像人臉識別的研究時間較長,軟硬件技術(shù)較為完備,得到了廣泛的應(yīng)用。但是由于2D圖像反映二維平面信息,不包含深度數(shù)據(jù),不能夠完整的表達出真實人臉模型。相比于二維人臉圖像,三維圖像不受光照等影響,具有更強的描述能力,能夠更為真實的反映人臉信息,在人臉合成、人臉遷移、三維人臉識別等場景中應(yīng)用。3D人臉識別一般采用深度相機獲取人臉深度信息,主要包括雙目相機,基于結(jié)構(gòu)光原理的RGB-D相機和基于光飛行時間原理的TOF相機。常見的三維人臉識別算法主要包括傳統(tǒng)識別方法和深度學習識別方法。
1.傳統(tǒng)識別方法
(1)基于點云數(shù)據(jù)的人臉識別
點云是3D人臉數(shù)據(jù)的一種表征方式,每一個點都對應(yīng)一個三維坐標,掃描設(shè)備使用這種數(shù)據(jù)格式存儲采集的三維人臉信息,甚至可以將稀疏坐標也拼接到形狀信息上,更為完善的反映人臉信息?;邳c云數(shù)據(jù)的3D人臉識別直接使用三維點云進行匹配,常見方法有ICP(Iterative Closest Point)和Hausdorff距離。前者可以修正點云信息中平移和旋轉(zhuǎn)變換的誤差,后者利用三維點云之間的距離最大值,匹配人臉,但是兩者均存在魯棒性不足的問題。
(2)基于面部特征的3D人臉識別
人臉的面部特征主要包括局部特征和全局特征,局部特征可以選擇從深度圖像上提取關(guān)于面部關(guān)鍵點的特征信息,全局特征是對整張人臉進行變換提取特征,例如球面諧波特征或者稀疏系數(shù)特征。
2.深度學習識別方法
(1)基于深度圖的人臉識別
深度圖像中三維數(shù)據(jù)的z值被投影至二維平面,形成平滑的三維曲面??墒褂脷w一化網(wǎng)絡(luò)和特征提取網(wǎng)絡(luò)實現(xiàn)深度圖人臉識別,歸一化網(wǎng)絡(luò)將輸入的深度圖像轉(zhuǎn)化為HHA圖像,再使用卷積神經(jīng)網(wǎng)絡(luò)回歸用于獲取歸一化深度圖的參數(shù),特征提取網(wǎng)絡(luò)用于獲取表征深度圖人臉的特征向量。
(2)基于RGB-3DMM的人臉識別
3DMM是指三維人臉變形統(tǒng)計模型,其最早是用于解決從二維人臉圖像恢復三維形狀的問題,現(xiàn)多被用于對深度圖像或彩色圖像進行人臉模型回歸,實現(xiàn)識別任務(wù)。
(3)基于RGB-D的人臉識別
RGB-D圖像是包含了彩色圖像和深度圖,前者是從紅、綠、藍顏色通道獲取的圖像,后者是指包含與視點的場景對象的表面的距離有關(guān)的圖像通道,兩者之間是相互配準。通過對彩色圖像和多幀融合后的深度圖像分別進行預訓練和遷移學習,在特征層進行融合,提高人臉識別率。
二、表情識別最新研究
1) Facial Emotion Recognition with Noisy Multi-task Annotations
摘要
從面部表情可以推斷出人類的情感。但是,在常見的情感編碼模型中,包括分類和維度模型,面部表情的注釋通常會非常嘈雜。為了減少人為標注多任務(wù)標簽的工作量,文中引入了帶有嘈雜的多任務(wù)注釋的面部表情識別新問題。對于這個新問題,文中建議從聯(lián)合分布匹配的角度進行計算,其目的是學習原始人臉圖像和多任務(wù)標簽之間更可靠的關(guān)聯(lián),從而減少噪聲影響。采用一種新方法來在統(tǒng)一的對抗性學習游戲中啟用情緒預測和聯(lián)合分布學習。在廣泛的實驗中進行的評估研究了所提出的新問題的實際設(shè)置,以及所提出的方法在合成嘈雜的帶標簽CIFAR-10或?qū)嶋H嘈雜的多點干擾方法上優(yōu)于最新競爭方法的明顯優(yōu)勢標記為RAF和AffectNet的任務(wù)。
本文探討的是嘈雜的多任務(wù)標簽中面部表情識別的問題。實際應(yīng)用中,兩種最常用的面部情緒編碼模型是分類和維數(shù),但是通過從可用的情感標簽中進行模型的學習容易產(chǎn)生不好的結(jié)果,因此,文中提出的公式是從聯(lián)合分布匹配的角度解決此問題的,旨在利用數(shù)據(jù)和多任務(wù)標簽之間的相關(guān)性來減少標簽噪聲的影響。
該文為解決人臉情感識別的實際案例提供了一些貢獻,主要可概括為以下三點:(1)提出了一個帶有嘈雜的多任務(wù)標簽的面部表情識別新問題,該問題的目標是易于獲得的廉價多任務(wù)注釋;(2)提出了一種廣義化的公式,在數(shù)據(jù)和異構(gòu)多任務(wù)標簽之間具有明確的聯(lián)合和邊際分布匹配;(3)引入了一種新的對抗學習模型,以基于聯(lián)合和邊際分布的約束條件來優(yōu)化對情緒預測的訓練,這被證明適合于新提出的問題。
帶有噪音標簽的面部情感識別僅在帶有噪音標簽的面部圖像上訓練魯棒模型。傳統(tǒng)的方法是直接用噪聲標簽分布對噪聲建模,但是傳統(tǒng)的條件概率建模具有幾個明顯的缺點,例如轉(zhuǎn)換矩陣缺乏約束條件收斂到真值等。針對于此,本文利用匹配兩個聯(lián)合分布的關(guān)鍵思想,考慮在兩對數(shù)據(jù)和標簽上的以下兩個聯(lián)合概率分布:
由于對現(xiàn)實世界數(shù)據(jù)的數(shù)據(jù)分布的顯式概率密度函數(shù)進行建模難以計算,因此將兩個聯(lián)合分布與精確建模進行匹配通常是不可行的。為克服該問題,本文采用了生成對抗模型方法。其中,編碼器的學習函數(shù)以從輸入圖像中推斷出干凈的標簽,解碼器的學習函數(shù)以生成面部圖像,來自嘈雜標簽的對應(yīng)表達式。整體架構(gòu)如下圖所示
為了匹配編碼器和解碼器捕獲的聯(lián)合分布,在生成器和鑒別器之間進行對抗游戲。鑒別器是專門為匹配面部圖像,噪聲矢量以及GY和GX的多任務(wù)標簽的組的聯(lián)合分布而設(shè)計。對于聯(lián)合分布對齊,一種自然的方法是將分別從編碼器和解碼器采樣的數(shù)據(jù)在網(wǎng)絡(luò)中以進行對抗訓練。但是,每個組中的數(shù)據(jù)是高度異構(gòu)的,因此直接串聯(lián)是不合適的。為了減少數(shù)據(jù)和多任務(wù)標簽之間的異質(zhì)性,本文采用多個網(wǎng)絡(luò)流,并將所有網(wǎng)絡(luò)流的輸出送入網(wǎng)絡(luò),完整的目標函數(shù)如下,
文中提出的生成器和鑒別器能夠在統(tǒng)一框架內(nèi)優(yōu)化基于情緒預測的損失和基于分布匹配的約束。文中根據(jù)此方案設(shè)計了最小—最大目標函數(shù):
在該文中,由于將面部情感識別視為目標任務(wù),因此將情感預測用作輔助任務(wù),從而從圖像到標簽的關(guān)系和任務(wù)到任務(wù)的關(guān)系中使目標任務(wù)受益,該算法如下圖所示。
文中在兩種情況下對該模型進行評估:(1)用于圖像分類的合成噪聲標簽數(shù)據(jù)集(CIFAR-10 [25]);(2)用于面部表情識別的兩個實用的面部表情數(shù)據(jù)集(RAF和AffectNet)。
下圖為實驗1的結(jié)果,可見采用文中提出的模型使得準確率得到提高。
下圖為基線和在訓練步驟中提出的模型的測試準確性曲線的可視化呈現(xiàn)。
下圖為實驗2的面部情緒數(shù)據(jù)集的評估結(jié)果,可知在多任務(wù)情況下,運用本文提出的模型獲得的預測準確性更高。
本文介紹了一個帶有噪聲的多任務(wù)注釋的面部情緒識別的問題,在減少人為多任務(wù)學習的標簽工作方面具有很大的應(yīng)用潛力。文中從聯(lián)合分配匹配的角度介紹了一種新的公式,按照該公式,采用一種新的對抗學習方法來共同優(yōu)化情緒預測和聯(lián)合分布學習。最后研究了合成噪聲標簽數(shù)據(jù)集和實用的噪聲多任務(wù)數(shù)據(jù)庫的建立,并通過對它們的評估證明了該方法在解決新問題方面的明顯優(yōu)勢。
2) THIN: THrowable Information Networks and Application for Facial Expression Recognition In The Wild
摘要
對于使用深度學習技術(shù)解決的許多任務(wù),可以識別一個外生變量,該變量會影響到不同類的外觀,并且理想分類器能夠?qū)Υ俗兞渴冀K保持不變。本文提出了雙重外生/內(nèi)生表示法。文中設(shè)計了一個預測層,該預測層使用由外生表示條件限定的深度整體,可以學習自適應(yīng)的弱預測變量的權(quán)重,并且顯式地建模外生變量和預測任務(wù)之間的依賴關(guān)系。此外,文中提出了外源性消除損失的計算,以從內(nèi)源性表示中刪除外源性信息。因此,外生信息被使用了兩次,第一次是作為目標任務(wù)的條件變量,第二次是在內(nèi)生表示中產(chǎn)生不變性。本文將該方法命名為THIN,代表THrowable Information Net-works。本文在幾種可以識別外源信息的情況下,通過實驗驗證了THIN,例如大旋轉(zhuǎn)下的數(shù)字識別和多尺度下的形狀識別。還將其應(yīng)用于以身份為外生變量的FER。特別是證明了THIN在某些具有挑戰(zhàn)性的數(shù)據(jù)集上的性能明顯優(yōu)于最新方法。
深度學習技術(shù)在計算機視覺的監(jiān)督學習中取得了重大進展,允許共同學習一種表示形式和基于這種表示形式的預測變量。完善的深度學習技術(shù)構(gòu)成了大多數(shù)計算機視覺問題中的最新方法,例如對象分類或檢測,語義分割或面部和身體分析。然而,在許多此類任務(wù)中,對象的外觀會受到外生變量的嚴重影響,理想情況下,任務(wù)預測應(yīng)根據(jù)該變量進行不變。
但是,與此同時,從預測系統(tǒng)的角度來看,無論外在變量(例如受試者身份)的變化如何,都應(yīng)該預測我們的目標任務(wù)(例如面部表情)。因此,本文認為與任務(wù)相關(guān)的表示(稱為內(nèi)生表示)應(yīng)包含盡可能少的有關(guān)外生變量的信息。
綜上所述,在這種情況下,該外生變量是數(shù)據(jù)變化的重要來源,同時也是信息的來源,從該信息中,預測變量的輸出應(yīng)盡可能不變。因此,我們建議使用單獨的外在和內(nèi)在表示。
本文的貢獻:(1)提出了一個外生樹狀深度集成方法,該模型使用內(nèi)生和外生雙重網(wǎng)絡(luò)。第一個輸出表示用于預測任務(wù),而第二個輸出的表示通過適應(yīng)性和聯(lián)合學習更多相關(guān)的弱預測變量,以進行深度相關(guān)的調(diào)整;(2)提出了一種外源消除損失,通過內(nèi)源表示與外源表示之間的正交性,從內(nèi)源表示中消除外源變異;(3)在具有不同外生變量的多個任務(wù)上實驗性地驗證了這種方法。
文中通過深度神經(jīng)網(wǎng)絡(luò)對外生信息建模,然后從定義一個簡單的基線模型開始,然后逐步引入其他的架構(gòu),從而描述如何明確地合并外生表示和任務(wù)預測之間的依賴關(guān)系,整體架構(gòu)如下圖所示。
如上圖所示,主要呈現(xiàn)了基線框架,簡單的深度集成方法框架,樹狀深度集成方法框架,外生樹狀深度集成方法框架。從基線框架開始,通過自適應(yīng)加權(quán)深層集成的預測并利用外源表示來逐步改進框架的設(shè)計方法。
樹狀深度集成網(wǎng)絡(luò)通過參數(shù)優(yōu)化相應(yīng)的損失,然后將與外生變量有關(guān)的信息分解為內(nèi)生表示中的任務(wù),并將提取的外生和內(nèi)生的特征輸入網(wǎng)絡(luò)和進行輸出,通過超參數(shù)進行實驗設(shè)置,從而實現(xiàn)從內(nèi)在表征中去除外源性信息。
文中通過將模型在合成數(shù)據(jù)集上進行評估,從中可以清楚地識別外生變量。緊接著,在真實的FER數(shù)據(jù)集中定性和定量驗證模型,主要是介紹了用于訓練或測試所提出方法的數(shù)據(jù)集,具體的實現(xiàn)細節(jié)。下圖中Table 2為在MNIST-R和dSprites數(shù)據(jù)集上,根據(jù)平均準確度比較不同體系結(jié)構(gòu);Figure 4為MNIST-R以平均準確度表示的消融外源表征消除的消融研究
除了在MNIST數(shù)據(jù)集上之外,文中還在RAF-DB,AffectNet和ExpW數(shù)據(jù)集上進行了實驗驗證,Table 3從平均準確率上比較了不同的體系架構(gòu),F(xiàn)igure 5是在數(shù)據(jù)集RAF-DB上進行消融研究的結(jié)果。
最后將THIN與最新的FER方法進行了比較,證明了THIN在當今最新的,具有挑戰(zhàn)性的FER數(shù)據(jù)庫上的性能明顯優(yōu)于最新技術(shù)。
本文中所提出的模型具有較多的應(yīng)用可能性。首先,理論上可以將THIN直接應(yīng)用于其他問題,例如以姿勢或比例作為外生變量的身體姿勢估計,或具有領(lǐng)域信息的語義分割。其次,在本文中僅使用一個外生變量來訓練THIN。但是,可以嘗試使用多個這樣的變量和表示網(wǎng)絡(luò)以及某種融合方案來應(yīng)用。此外可以嘗試使用身份作為外生變量的THIN來預測面部表情,然后使用以面部表情作為外生變量的另一個THIN來預測身份,依此類推,以迭代地完善FER和身份預測。
備注:在公眾號「計算機視覺工坊」后臺,回復「人臉識別技術(shù)」,即可獲得上述兩篇論文。
參考文獻
1、基于深度學習的自然場景下多人臉檢測
2、Facial Emotion Recognition with Noisy Multi-task Annotations
3、THIN: THrowable Information Networks and Application for Facial Expression Recognition in the Wild
本文僅做學術(shù)分享,如有侵權(quán),請聯(lián)系刪文