版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、掌紋識(shí)別作為一種重要的生物特征識(shí)別技術(shù),具有結(jié)構(gòu)穩(wěn)定,分辨率低,成本低等特點(diǎn)。與人臉識(shí)別技術(shù)相比,掌紋識(shí)別不容易受表情和光照變化的影響;與指紋識(shí)別相比,掌紋識(shí)別具有更豐富的特征。因此越來(lái)越多的學(xué)者展開了對(duì)掌紋識(shí)別的研究。
掌紋特征具有多樣性,比如不同波段的光譜下得到的多光譜掌紋圖像之間具有不同的掌紋特征;2D掌紋圖像具有豐富的紋理特征,結(jié)構(gòu)光下采集到的3D掌紋具有豐富的深度信息。不同的掌紋特征之間又同時(shí)具有局限性和互補(bǔ)性。因此
2、對(duì)于這些不同的掌紋特征而言,如何有效地使用特征抽取和特征融合的技術(shù)來(lái)提高掌紋的識(shí)別率,是目前掌紋識(shí)別中的一個(gè)重要研究方向,同時(shí)也是本文的主要研究?jī)?nèi)容。本文的主要研究工作和創(chuàng)新點(diǎn)包括:
1.對(duì)于多光譜掌紋識(shí)別,如何有效融合多個(gè)波段的掌紋圖像特征是其中的關(guān)鍵問(wèn)題。針對(duì)此問(wèn)題,本文提出了一種基于圖像線性判別分析IBLDA方法的特征融合方案。實(shí)驗(yàn)證明本文提出的方法可以有效地融合多模態(tài)的掌紋特征,而且比QPCA方法和MCPCA方法的融合
3、方法效果更優(yōu)。另外,在多光譜掌紋識(shí)別中,如何從可供選擇的波段中,選擇最優(yōu)的一組波段進(jìn)行融合也是一個(gè)關(guān)鍵問(wèn)題。本文提出一種基于主成分分析方法和余弦相似性度量的多光譜掌紋的最優(yōu)波段組合和融合方案。實(shí)驗(yàn)證明該方案既提高了整體識(shí)別率,又降低了時(shí)間復(fù)雜度。
2.多光譜掌紋識(shí)別中,融合不同波段樣本可以提高掌紋識(shí)別率,但是這些不同波段之間的信息并不是互補(bǔ)的。為了更好的進(jìn)行掌紋識(shí)別,需要進(jìn)一步剔除不同波段圖像之間的冗余信息。擴(kuò)展的彩色圖像鑒別
4、分析模型(GCID)可以提取融合圖像的鑒別特征并去除各分量之間的冗余信息,但是它所使用的Fisher模型容易導(dǎo)致類內(nèi)散度矩陣奇異性。因此本文針對(duì)原有的GCID模型提出了改進(jìn)的并行GCID模型。并行GCID模型包含雙目標(biāo)函數(shù),即將原有的Fihser模型中的兩個(gè)比值分開計(jì)算,并最終通過(guò)構(gòu)造復(fù)數(shù)矩陣的形式將結(jié)果融合在一起。實(shí)驗(yàn)結(jié)果表明本文提出的并行GCID模型與其他流行的掌紋識(shí)別方法相比具有更高的識(shí)別率。
3.2D掌紋圖像包含了豐富
5、的紋理信息,但是2D掌紋容易偽造并且更易受光照變化的影響。3D掌紋圖像包含了掌紋表面的深度信息,可以克服2D掌紋的不足。有效融合2D和3D掌紋以取得更高的掌紋識(shí)別率同樣具有重要意義。因此,我們?cè)O(shè)計(jì)了兩種基于2D和3D掌紋的特征抽取和融合方案。首先,提出了一種使用3D掌紋的均值曲率圖特征和使用2D掌紋的Gabor特征,并對(duì)其進(jìn)行匹配得分層融合的策略。實(shí)驗(yàn)結(jié)果表明了該融合方案可以將2D+3D掌紋的識(shí)別率提高2%。同時(shí)掌紋識(shí)別中存在掌紋圖像的
6、旋轉(zhuǎn)以及平移問(wèn)題。為了克服該問(wèn)題,本章還提出了一種使用Daisy描述符和SIFT特征來(lái)提取掌紋圖像樣本的方向信息的方案。實(shí)驗(yàn)表明該方案確實(shí)可以增強(qiáng)掌紋識(shí)別對(duì)圖像旋轉(zhuǎn)與平移的魯棒性。
4.通過(guò)降低掌紋圖像的維度,可以獲得稀疏性的線性表達(dá),還可以提高掌紋融合的有效性?;谙∈璞磉_(dá)的流形學(xué)習(xí)方法與傳統(tǒng)的線性降維方法相比,可以獲得稀疏性的表達(dá)系數(shù)矩陣,這樣在進(jìn)一步的樣本分類階段就可以降低時(shí)間復(fù)雜度并提高分類正確率。因此本文將稀疏性的流
7、形學(xué)習(xí)方法與l2,1范數(shù)相結(jié)合,提出了一種基于l2,1范數(shù)的魯棒性特征抽取算法來(lái)抽取掌紋特征。該算法能夠有效地發(fā)現(xiàn)高維數(shù)據(jù)中的本質(zhì)維數(shù),能更好的進(jìn)行維數(shù)約簡(jiǎn)和數(shù)據(jù)分析;同時(shí)該算法還可以發(fā)現(xiàn)嵌入在高維數(shù)據(jù)空間的低維流形結(jié)構(gòu),可以深度挖掘數(shù)據(jù)點(diǎn)之間內(nèi)在的結(jié)構(gòu)信息。實(shí)驗(yàn)結(jié)果表明,與其他流形學(xué)習(xí)以及降維方法相比,本文提出的基于l2,1范數(shù)的優(yōu)化模型可以有效地提高掌紋識(shí)別率。
綜上所述,本文主要針對(duì)基于特征融合的掌紋識(shí)別方法進(jìn)行了研究,
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于2D-3D數(shù)據(jù)融合的位姿測(cè)量方法研究.pdf
- 基于2D-3D圖像數(shù)據(jù)融合的空間目標(biāo)運(yùn)動(dòng)估計(jì)方法.pdf
- 基于稀疏表示的2d-3D人臉識(shí)別算法研究.pdf
- 基于雙目圖像的2D-3D圖像轉(zhuǎn)換方法研究.pdf
- 基于GIST特征匹配與SIFT流的2D-3D圖像轉(zhuǎn)換方法研究.pdf
- 基于2D-3D視頻的運(yùn)動(dòng)分割與運(yùn)動(dòng)估計(jì).pdf
- 基于2D-3D融合的非合作目標(biāo)位姿測(cè)量系統(tǒng)研究與實(shí)現(xiàn).pdf
- 基于投影圖像的2D-3D圖像配準(zhǔn)方法的研究.pdf
- 2D-3D醫(yī)學(xué)圖像配準(zhǔn)研究.pdf
- 基于2D-3D人體掃描裝置的圖像處理和尺寸獲取研究.pdf
- 3D質(zhì)量引導(dǎo)的2D-3D轉(zhuǎn)換技術(shù).pdf
- 基于Android平臺(tái)的2D-3D視頻轉(zhuǎn)換系統(tǒng).pdf
- 2D-3D視頻轉(zhuǎn)換中關(guān)鍵幀選取方法的研究.pdf
- 基于Contourlet變換的2D-3D轉(zhuǎn)換數(shù)字水印算法.pdf
- 基于DRR的2D-3D醫(yī)學(xué)圖像配準(zhǔn)技術(shù)的研究.pdf
- 半自動(dòng)2D-3D轉(zhuǎn)換算法的研究.pdf
- 基于FTP的3D掌紋識(shí)別技術(shù)研究.pdf
- 基于CUDA的2D-3D醫(yī)學(xué)圖像配準(zhǔn)技術(shù)研究.pdf
- 多光譜掌紋識(shí)別波段選擇方法研究.pdf
- 2D-3D視頻轉(zhuǎn)換中深度圖生成方法研究.pdf
評(píng)論
0/150
提交評(píng)論