基于稀疏表示的多姿態(tài)人臉合成與識(shí)別_第1頁(yè)
已閱讀1頁(yè),還剩8頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、<p>  基于稀疏表示的多姿態(tài)人臉合成與識(shí)別</p><p>  摘 要:姿態(tài)問題因其帶來(lái)的光照、遮擋、非線性尺度變化,成為了影響自動(dòng)人臉識(shí)別效果的瓶頸。如何去衡量不同姿態(tài)的人臉圖像下的相關(guān)性,是解決多姿態(tài)人臉識(shí)別問題的關(guān)鍵。本文通過字典學(xué)習(xí)與稀疏表示的方法,聯(lián)合訓(xùn)練正臉姿態(tài)和非正臉姿態(tài)字典,保證同一對(duì)象兩個(gè)姿態(tài)樣本的稀疏表示系數(shù)相同,通過稀疏表示系數(shù)的相似性來(lái)衡量不同姿態(tài)的人臉的相似性。通過以上的

2、相似性,本文提出了多姿態(tài)的人臉合成算法,并分別設(shè)計(jì)了基于合成人臉和稀疏表示系數(shù)本身的姿態(tài)魯棒人臉識(shí)別系統(tǒng),通過在CMU-PIE多姿態(tài)人臉數(shù)據(jù)集的實(shí)驗(yàn),證明了本文方法在處理多姿態(tài)人臉識(shí)別的有效性。</p><p>  Abstract:Pose variations which bring illumination change, occlusion and non-linear scale variations,

3、 is the bottleneck influencing performance of automatic face recognition system. How to measure the similarity among samples under different poses is a key problem. In this paper, we propose a new approach to measure cor

4、relations between different poses via sparse representations. Based on dictionary learning and sparse representation techniques, we jointly train frontal and non-frontal dictionari</p><p>  關(guān)鍵詞:稀疏表示;多姿態(tài)人臉識(shí)別;

5、人臉合成;字典學(xué)習(xí)</p><p>  Key words:Sparse Representation;Multi-pose Face Recognition;Face Synthesis;Dictionary Learning</p><p><b>  1 引言</b></p><p>  近年來(lái),隨著研究的不斷深入,自動(dòng)人臉識(shí)別技術(shù)得到了

6、高速的發(fā)展,一些最新的人臉識(shí)別算法,在可控外部環(huán)境條件下,已經(jīng)能夠達(dá)到了較高的識(shí)別速度和識(shí)別精度[3][7][8][9][10]。然而,對(duì)于目前大多數(shù)人臉識(shí)別算法,一旦一些外部因素(如被測(cè)者的姿態(tài)、表情,光照環(huán)境)產(chǎn)生了較大的變化,將會(huì)的導(dǎo)致人臉識(shí)別精度的顯著下降[1]。然而,以上的一些變化,在真實(shí)世界的人臉識(shí)別應(yīng)用領(lǐng)域幾乎是不可避免的。如何對(duì)以上外部因素進(jìn)行建模,并設(shè)計(jì)開發(fā)對(duì)這些外部因素魯棒的人臉識(shí)別算法,成為了最近十年人臉識(shí)別研究的

7、重點(diǎn)。</p><p>  而被測(cè)者姿態(tài)的變化問題,又成為了影響人臉識(shí)別的最難以處理的外部因素。由于人臉作為一個(gè)高度非剛性物體的特殊性,姿態(tài)的變化,往往帶來(lái)了,旋轉(zhuǎn)、位移、遮擋、光照變化等諸多非線性變換。在不同的視角下,一些臉部區(qū)域與被測(cè)者的角度、距離均產(chǎn)生了明顯的變化,甚至被遮擋。由于在現(xiàn)實(shí)應(yīng)用中,往往不能將多個(gè)姿態(tài)均存入數(shù)據(jù)庫(kù)。因此,只有快速準(zhǔn)確的進(jìn)行姿態(tài)矯正,或者提取姿態(tài)不變的信息,找出不同姿態(tài)下的相似性度

8、量,是解決人臉識(shí)別中的姿態(tài)問題的有效方法。</p><p>  許多研究致力于解決人臉識(shí)別中的姿態(tài)變化問題。早期解決姿態(tài)變化問題,主要是通過一些2D表觀模型的形變,獲得不同姿態(tài)下的關(guān)鍵特征的匹配。最具代表性的有Wiskott等人的彈性圖匹配算法(EBGM)[2]。該算法通過在手動(dòng)選取的對(duì)應(yīng)特征點(diǎn)上的Gabor小波元素集的度量與特征點(diǎn)之間的幾何信息,構(gòu)造了束圖,從而獲得不同姿態(tài)下對(duì)應(yīng)特征點(diǎn)的相似性。Castillo

9、等人使用立體匹配的方法,通過3或4個(gè)關(guān)鍵點(diǎn),獲得人臉圖像的核面幾何構(gòu)造,計(jì)算不同姿態(tài)下人臉的相似程度[11]。Prince等人提出了約束因素分析方法,將姿態(tài)建模視為約束因素,將姿態(tài)變換下的表觀個(gè)體表觀差異視為高斯噪聲,通過EM算法,估計(jì)姿態(tài)變換,同時(shí)通過后驗(yàn)概率度量對(duì)噪聲參數(shù)進(jìn)行匹配,從而達(dá)到了識(shí)別的目的[12]。Chai等人通過圓柱模型來(lái)近似人臉,獲得正臉和側(cè)臉的塊匹配,對(duì)于每一個(gè)子塊,進(jìn)行訓(xùn)練樣本的線性回歸,獲得了某姿態(tài)正臉到側(cè)臉的

10、映射關(guān)系,從而重建虛擬正臉[5]。Li等人通過典型正則分析(CCA),分別將維度不一致的正臉和側(cè)臉空間,投影到中介子空間中,通過在該子空間中的相似性度量,獲得了正臉和側(cè)臉的相似性度量[6]。Blanz等人使用</p><p>  基于流形空間方法的人臉識(shí)別,揭示了高維的人臉圖像,可以被表示為具有代表性樣本的稀疏線性組合[10]。最近,Wright等人通過稀疏表示的方法,進(jìn)行魯棒人臉識(shí)別。在他們的工作中,他們將訓(xùn)練

11、樣本與遮擋因素當(dāng)做聯(lián)合字典集,通過l1范數(shù)優(yōu)化方法,獲得了測(cè)試圖像樣本的稀疏線性表示,通過在字典集中,尋找最小重建誤差的匹配子集,實(shí)現(xiàn)魯棒識(shí)別。在圖像超分辨率領(lǐng)域,Yang等人通過聯(lián)合訓(xùn)練高分辨率字典和對(duì)應(yīng)低分辨率字典,使同一對(duì)象的不同分辨率圖像,在兩個(gè)字典中的稀疏表示相同。在重建過程中,計(jì)算待處理低分辨率圖像的稀疏表示系數(shù),并使用該系數(shù)對(duì)高分辨率字典元素進(jìn)行系數(shù)的線性組合,獲得高分辨率圖像,達(dá)到了較好的復(fù)原效果[13]。</p&

12、gt;<p>  在以上工作的啟發(fā)下,本文在多姿態(tài)訓(xùn)練樣本上,分別就不同的姿態(tài),通過字典學(xué)習(xí)的方法,訓(xùn)練出用于稀疏表示的字典,同時(shí)通過約束其字典系數(shù),是的對(duì)于同一樣本的不同姿態(tài),在對(duì)應(yīng)字典上的稀疏表示相同?;谝陨嫌?xùn)練的字典,我們?cè)O(shè)計(jì)了人臉合成算法,通過l1范數(shù)最小化,計(jì)算待測(cè)人臉對(duì)應(yīng)姿態(tài)字典的稀疏表示,通過該稀疏表示,對(duì)其余姿態(tài)進(jìn)行重建,從而獲得了合成的多姿態(tài)人臉圖像,使用合成圖像和現(xiàn)有的單一姿態(tài)人臉識(shí)別算法,實(shí)現(xiàn)了多姿

13、態(tài)的人臉識(shí)別。此外,我們還設(shè)計(jì)了基于相似性度量的算法,直接將對(duì)應(yīng)字典下的稀疏表示,當(dāng)做姿態(tài)不變相似性度量特征,進(jìn)行入庫(kù)人臉與待測(cè)人臉匹配。通過在CMU-PIE多姿態(tài)人臉數(shù)據(jù)集的實(shí)驗(yàn),以及與現(xiàn)有方法的比較,說(shuō)明了本文方法在處理多姿態(tài)人臉識(shí)別方面,具有較高的有效性。</p><p>  2 多視角人臉成像模型</p><p>  給定正臉3D表面形態(tài),由于大多數(shù)人臉的3D表面形態(tài)在整體上具有一

14、定的相似性,因此可以看做均臉3D表面形態(tài)與形態(tài)差異“噪聲”之和:</p><p>  其中平行于人臉的法向量。正面視角中可以看到垂直于觀察者平面??梢钥闯?,正面視角中向觀察者平面垂直投影無(wú)法帶來(lái)任何變化。因此,一個(gè)正臉圖像可以表示成為:</p><p>  其中是投影變換矩陣,通過每個(gè)3D表面的點(diǎn)將投影到2D觀察者平面,而為2D平面上某點(diǎn)的密度值。在某個(gè)旋轉(zhuǎn)角下的3D表面形態(tài)為:</

15、p><p>  由于人臉表面能夠被看作一個(gè)Lambertian表面,其紋理密度的變化不隨著視角的改變而改變。然而,由于人臉表面的非線性結(jié)構(gòu),將會(huì)為成像帶來(lái)遮擋和扭曲。這些變化能夠被分為兩部分:1、由3D均臉表面形態(tài)帶來(lái)的變化,2、由個(gè)體差異帶來(lái)的變化。</p><p>  其中為因3D均臉表面非線性帶來(lái)的遮擋和扭曲。為個(gè)體表面形狀差異導(dǎo)致的遮擋。為了從側(cè)臉得到重建正臉,或得到姿態(tài)不變的相關(guān)性度

16、量,我們需要估計(jì)對(duì)和做出估計(jì)。由于在相同的非線性人臉表面下,特定姿態(tài)的扭曲與遮擋是相同的,也就是說(shuō),點(diǎn)集映射在不同的樣本中具有可加性。此外,3D均臉非線性結(jié)構(gòu)帶來(lái)的整體差異相比,由于個(gè)體差異帶來(lái)的扭曲較小,且作用范圍較為局限,因此,我們只考慮個(gè)體差異帶來(lái)的遮擋,而該種遮擋僅出現(xiàn)在圖像的一小部分中。從上面的分析可以得出,同一對(duì)象在不同姿態(tài)下的人臉圖像之間的非線性變化,可以看做變換和稀疏非線性誤差。</p><p>

17、  給定正臉和側(cè)臉訓(xùn)練集與,其中為訓(xùn)練樣本數(shù)目,和分別為正臉圖像和某角度下的側(cè)臉圖像。對(duì)于任何角度下的側(cè)臉圖像,能夠近似成為訓(xùn)練樣本的線性表示:</p><p>  其中,。根據(jù)以上的討論,我們能夠得到對(duì)應(yīng)的正臉圖像表示:</p><p>  由于具有可加性,正臉圖像可以表示為:</p><p>  3 基于稀疏表示的正臉合成</p><p>

18、;<b>  3.1基本思想</b></p><p>  對(duì)于給定正臉和側(cè)臉詞典,,具有如下的性質(zhì),即對(duì)同一對(duì)象的在對(duì)應(yīng)姿態(tài)的圖像,在字典中的稀疏表示系數(shù)相同。對(duì)于某個(gè)個(gè)體輸入側(cè)臉圖像,在側(cè)臉字典上的稀疏表示系數(shù)可以通過如下l1范數(shù)最小化方法計(jì)算:</p><p>  該問題的最優(yōu)解可以通過凸優(yōu)化方法計(jì)算。本文中l(wèi)1范數(shù)最優(yōu)化問題,均采用[]的方法進(jìn)行計(jì)算。通過已獲得

19、的稀疏表示系數(shù),我們能夠得到估計(jì)的正臉圖像:</p><p>  下圖為正臉重建的基本思想與流程:</p><p>  圖:正臉圖像重建的基本思想</p><p>  3.2基于3D表面的圖像塊匹配</p><p>  由于人臉表面形態(tài)高度非線性,將人臉整體當(dāng)做字典元素,會(huì)帶來(lái)局部形狀和紋理的失真。因此,我們將圖像分成了不同的小塊,對(duì)每個(gè)小塊

20、建立對(duì)應(yīng)的字典。在測(cè)試環(huán)節(jié)下,通過計(jì)算每個(gè)小塊的字典系數(shù),可以方便的重建出人臉圖像。同時(shí),為了提高合成人臉的光滑度,以及防止塊狀效應(yīng),我們使用了重疊法。在本文中,我們將正臉圖像分成了的小塊,對(duì)于每個(gè)小塊,通過將均臉表面進(jìn)行一定角度的旋轉(zhuǎn)與投影,我們能夠獲得每個(gè)小塊在側(cè)臉上的對(duì)應(yīng)非線性圖像塊。很顯然,由于遮擋和扭曲,側(cè)臉上的圖像塊,具有不同的長(zhǎng)度?;?D表面的圖像塊匹配方法如下圖所示:</p><p>  圖:3

21、D表面模型輔助的多姿態(tài)圖像塊匹配</p><p>  3.3 引入對(duì)稱信息的遮擋彌補(bǔ)</p><p>  正如我們?cè)趬K匹配中看到的,正臉圖像的一些部分在非正臉圖像中,會(huì)產(chǎn)生遮擋與扭曲問題。此類失真將會(huì)影響到正臉合成的精度。然而,在姿態(tài)問題中,被遮擋部分的對(duì)稱部分盡管也有一定程度的扭曲,但在圖像中能夠無(wú)遮擋的顯示。由于大多數(shù)人臉可以近似為一個(gè)對(duì)稱對(duì)象,因此,我們使用對(duì)稱部分的信息去對(duì)遮擋部分

22、進(jìn)行彌補(bǔ)。根據(jù)塊匹配可以看出,被遮擋部分,導(dǎo)致側(cè)臉對(duì)應(yīng)圖像塊的長(zhǎng)度下降。據(jù)此,我們得到了衡量被遮擋程度的度量函數(shù):</p><p>  我們得到了帶有對(duì)稱約束的l1最小化問題:</p><p><b>  , s.t. ,</b></p><p>  引入衡量塊遮擋的嚴(yán)重程度的差異,使用拉普拉斯乘子,將不等式約束轉(zhuǎn)化為目標(biāo)函數(shù):</p&g

23、t;<p>  其中,為塊對(duì)稱部分的鏡像。這樣,在遮擋嚴(yán)重的塊矩陣,以較高的權(quán)重來(lái)參考對(duì)稱信息。</p><p>  3.4 聯(lián)合字典學(xué)習(xí)</p><p>  由于,因?yàn)楣庹?、表情、微小姿態(tài)差異等因素的影響,直接將訓(xùn)練樣本充當(dāng)字典,并能夠滿足兩對(duì)應(yīng)字典稀疏表示系數(shù)的嚴(yán)格相等。因此,我們希望通過聯(lián)合字典學(xué)習(xí)的方法,同時(shí)訓(xùn)練正臉和側(cè)臉字典,滿足字典系數(shù)的嚴(yán)格相等性。</p&

24、gt;<p>  給定訓(xùn)練圖像樣本,其中為非正臉圖像數(shù)據(jù)集的某個(gè)塊,為正臉圖像數(shù)據(jù)集某個(gè)塊。我們需要對(duì)于兩個(gè)不同的姿態(tài),分別訓(xùn)練字典和,滿足同一個(gè)被測(cè)者的不同姿態(tài),在對(duì)應(yīng)字典上的稀疏表示相等。目標(biāo)函數(shù)的l1正則化可以表示為:</p><p><b>  與</b></p><p>  以上兩個(gè)目標(biāo)函數(shù)可以結(jié)合成為:</p><p>

25、;  其中,分別正臉字典的第i列,該目標(biāo)函數(shù)可以簡(jiǎn)化為:</p><p>  其中,,。其中為了平衡長(zhǎng)度不同的正臉圖像與側(cè)臉圖像塊元素的權(quán)重。同時(shí)對(duì)于,該問題為非凸問題,然而,固定其中一個(gè)未知量,對(duì)另一個(gè)未知量,該問題為凸問題。因此,可以通過反復(fù)迭代的方法,來(lái)計(jì)算最優(yōu)化的值,算法流程如下:</p><p><b>  4 實(shí)驗(yàn)結(jié)果</b></p><

26、;p>  本章中,我們分別進(jìn)行了正臉合成和姿態(tài)無(wú)關(guān)人臉識(shí)別兩組實(shí)驗(yàn),來(lái)證明我們提出的算法的有效性。在4.1節(jié),我們首先使用第三章的方法,在CMU-PIE人臉數(shù)據(jù)庫(kù)中的多姿態(tài)圖像,進(jìn)行了正面人臉的合成。在4.2節(jié),我們使用合成的人臉作為待測(cè)樣本,使用CMU-PIE中的真實(shí)人臉當(dāng)做樣本,分別采用了多種固定姿態(tài)的人臉識(shí)別方法,對(duì)重建人臉進(jìn)行識(shí)別,并與LLR重建人臉的識(shí)別進(jìn)行比較。</p><p><b>

27、;  4.1正臉重建</b></p><p>  為了驗(yàn)證我們我們正臉合成算法的有效性,我們?cè)贑MU-PIE庫(kù)的多姿態(tài)子集中進(jìn)行了正臉合成實(shí)驗(yàn),其中包含68個(gè)測(cè)試者的5個(gè)不同姿態(tài)的圖像(編號(hào)為c05,c29,c11,c37,分別代表+22.5,-22.5,+45,-45)。由于樣本量較少,我們使用了leave-one-out的訓(xùn)練方法。預(yù)處理階段,所有圖像根據(jù)手動(dòng)標(biāo)記的雙眼中心位置配準(zhǔn),并切成大小,兩

28、眼固定在(22,20)和(22,60)兩點(diǎn)。此后,將所有切出圖像進(jìn)行零均值化處理,在字典訓(xùn)練階段,設(shè)置字典集長(zhǎng)度為100,分塊大小,以步長(zhǎng)為2,按照掃描線順序進(jìn)行逐個(gè)訓(xùn)練。同時(shí),我們分別使用了均方根偏差(RMSE)和峰值信噪比(PSNR)作為衡量重建優(yōu)劣的標(biāo)準(zhǔn)。部分樣本重建結(jié)果如下圖所示:</p><p>  計(jì)算合成正臉和真實(shí)正臉之間的均方根偏差,我們得到c05,c29,c11,c37的均方根偏差分別為2.47

29、82,2.3741,2.8110,2.8067,遠(yuǎn)低于LLR方法得到的12.。</p><p>  4.2姿態(tài)無(wú)關(guān)人臉識(shí)別</p><p>  通過4.1節(jié),合成的正臉,可以被用于進(jìn)行姿態(tài)無(wú)關(guān)的人臉識(shí)別。首先,對(duì)入庫(kù)圖像均進(jìn)行DoG濾波預(yù)處理,濾波核分別選取。首先進(jìn)行庫(kù)內(nèi)單張圖像的識(shí)別,即對(duì)于圖像庫(kù)中,每人僅選用一張圖片,作為入庫(kù)圖像,試驗(yàn)中我們選取入庫(kù)圖像為編號(hào)為PIE27圖像子集,測(cè)試

30、集為對(duì)某個(gè)特定姿態(tài)下的重建正臉。識(shí)別算法分別采用了Gabor-SPR,PCA-LDA方法進(jìn)行了檢驗(yàn)。識(shí)別率如下圖所示:</p><p>  同時(shí),我們采用了LLR方法和本文方法進(jìn)行對(duì)比,可以看出,本文的方法在識(shí)別率,特別是姿態(tài)角較大時(shí)(c11,c37)上具有較高的優(yōu)勢(shì)。</p><p><b>  5 結(jié)論</b></p><p>  本文提出

31、了基于稀疏表示的正臉合成算法,訓(xùn)練具有相同稀疏表示系數(shù)的多姿態(tài)字典。并結(jié)合現(xiàn)有人臉識(shí)別方法,構(gòu)成姿態(tài)無(wú)關(guān)的人臉識(shí)別系統(tǒng)。同時(shí),通過采用塊匹配和對(duì)稱信息,最大程度的降低了因姿態(tài)帶來(lái)的遮擋問題的影響,產(chǎn)生了較好的結(jié)果。我們?cè)贑MU-PIE數(shù)據(jù)庫(kù)上進(jìn)行了多姿態(tài)數(shù)據(jù)的實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,我們的方法對(duì)姿態(tài)變化具有很強(qiáng)的魯棒性,同時(shí)也保證了重建人臉在視覺上具有與真實(shí)正臉的相似性,對(duì)解決姿態(tài)問題具有現(xiàn)實(shí)意義。</p><p>

32、<b>  參考文獻(xiàn)</b></p><p>  [1] W. Zhao, R. Chellappa, P. J. Phillips, and A. Rosenfeld. Face recognition: A literature survey. ACM Computing Surveys, 35(4):399–458, 2003.</p><p>  [2] Wi

33、skott, L.; Fellous, J.-M.; Kuiger, N.; von der Malsburg, C.; , "Face recognition by elastic bunch graph matching," Pattern Analysis and Machine Intelligence, IEEE Transactions on , vol.19, no.7, pp.775-779, Jul

34、 1997</p><p>  [3] Belhumeur, P.N.; Hespanha, J.P.; Kriegman, D.J.; , "Eigenfaces vs. Fisherfaces: recognition using class specific linear projection," Pattern Analysis and Machine Intelligence, IE

35、EE Transactions on , vol.19, no.7, pp.711-720, Jul 1997</p><p>  [4] V. Blanz, S. Romdhani, and T. Vetter, “Face Identification across Different Poses and Illumination with a 3D Morphable Model,” Proc. Fifth

36、 IEEE Int’l Conf. Automatic Face and Gesture Recognition, pp. 202-207, 2002.</p><p>  [5] X. Chai, S. Shan, X. Chen, and W. Gao, “Locally Linear Regression for Pose-Invariant Face Recognition,” IEEE Trans. I

37、mage Processing, vol. 16, pp. 1716-1725, 2007.</p><p>  [6] Annan Li; Shiguang Shan; Xilin Chen; Wen Gao; , "Maximizing intra-individual correlations for face recognition across pose differences,"

38、Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on , vol., no., pp.605-611, 20-25 June 2009</p><p>  [7] Turk, M.A.; Pentland, A.P.; , "Face recognition using eigenfaces,"

39、 Computer Vision and Pattern Recognition, 1991. Proceedings CVPR '91., IEEE Computer Society Conference on , vol., no., pp.586-591, 3-6 Jun 1991</p><p>  [8] Xiaogang Wang; Xiaoou Tang; , "A unified

40、 framework for subspace face recognition," Pattern Analysis and Machine Intelligence, IEEE Transactions on , vol.26, no.9, pp.1222-1228, Sept. 2004</p><p>  [9] Wright, J.; Yang, A.Y.; Ganesh, A.; Sastr

41、y, S.S.; Yi Ma; , "Robust Face Recognition via Sparse Representation," Pattern Analysis and Machine Intelligence, IEEE Transactions on , vol.31, no.2, pp.210-227, Feb. 2009</p><p>  [10] Xiaofei He

42、; Shuicheng Yan; Yuxiao Hu; Niyogi, P.; Hong-Jiang Zhang; , "Face recognition using Laplacianfaces," Pattern Analysis and Machine Intelligence, IEEE Transactions on , vol.27, no.3, pp.328-340, March 2005</p&

43、gt;<p>  [11] Castillo, C.D.; Jacobs, D.W.; , "Using Stereo Matching with General Epipolar Geometry for 2D Face Recognition across Pose," Pattern Analysis and Machine Intelligence, IEEE Transactions on ,

44、 vol.31, no.12, pp.2298-2304, Dec. 2009</p><p>  [12] Prince, S.J.D.; Warrell, J.; Elder, J.H.; Felisberti, F.M.; , "Tied Factor Analysis for Face Recognition across Large Pose Differences," Patter

45、n Analysis and Machine Intelligence, IEEE Transactions on , vol.30, no.6, pp.970-984, June 2008</p><p>  [13] Jianchao Yang; Wright, J.; Huang, T.S.; Yi Ma; , "Image Super-Resolution Via Sparse Represen

46、tation," Image Processing, IEEE Transactions on , vol.19, no.11, pp.2861-2873, Nov. 2010 </p><p>  [14] R. Gross, S. Baker, I. Matthews, and T. Kanade, “Face Recognition across Pose and Illumination,” H

47、andbook of Face Recognition, S.Z. Li and A.K. Jain, eds., Springer-Verlag, June 2004.</p><p>  [15] A.B. Ashraf, S. Lucey, and T. Chen, “Learning Patch Correspondences for Improved Viewpoint Invariant Face R

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論