2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩135頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

1、圖像特征提取與分類是計算機視覺、模式識別與圖像處理中最重要的研究課題之一,近幾十年來一直廣受研究者關(guān)注。同時,圖像特征提取與分類也是眾多計算機視覺和圖像處理課題如場景理解、目標(biāo)檢測、圖像檢索和醫(yī)學(xué)圖像分析等的研究基礎(chǔ),它們的表現(xiàn)直接影響著這些后續(xù)研究工作的性能。
  本文分析了圖和超圖學(xué)習(xí)在圖像特征提取與分類中的研究現(xiàn)狀以及超圖相對圖的結(jié)構(gòu)優(yōu)勢,從子空間學(xué)習(xí)、超圖構(gòu)建與屬性學(xué)習(xí)三個方面入手,圍繞超圖學(xué)習(xí)在圖像特征提取與分類中的應(yīng)用

2、進行研究。論文的主要研究工作和創(chuàng)新點如下:
 ?、籴槍ε袆e局部保留投影(Discriminant Locality Preserving Projections,簡稱DLPP)算法只能通過同類樣本之間的兩兩幾何關(guān)系來近似描述樣本的類別關(guān)系的不足,本文提出了一種新的有監(jiān)督的子空間學(xué)習(xí)方法——判別超拉普拉斯投影(Discrimiant Hyper-Laplacian Projections,簡稱DHLP)算法。DHLP算法首先有監(jiān)督地

3、構(gòu)建超圖以利用超邊直觀地描述樣本的類別關(guān)系,然后利用該超圖的拉普拉斯矩陣替換 DLPP算法中原來基于普通圖的拉普拉斯矩陣以學(xué)習(xí)一個能夠保留樣本類別關(guān)系的子空間用于圖像特征提取。大量實驗表明DHLP算法對DLPP算法的判別能力具有顯著的提高。此外,從圖嵌入的角度來看,諸多子空間學(xué)習(xí)算法都可以歸納為與DLPP算法類似的圖學(xué)習(xí)問題,因此DHLP的算法思想也可以被推廣到這些算法上。
  ②針對DHLP算法的算法復(fù)雜度過高的問題,本文提出了

4、可擴展判別超拉普拉斯投影算法(Scalable Discriminant Hyper-Laplacian Projections,簡稱SDHLP)。在SDHLP算法中,DHLP問題被近似為一個譜回歸問題進行求解。SDHLP算法不僅能把算法復(fù)雜度從關(guān)于特征維度三次方降低為線性次,還能取得和DHLP算法類似的性能。
  ③針對傳統(tǒng)超圖構(gòu)建方法在數(shù)據(jù)描述上準(zhǔn)確性與魯棒性的不足,本文提出利用回歸模型構(gòu)建“高質(zhì)量”超圖的算法框架——回歸超圖

5、(Regression-based Hypergraph,簡稱RH)模型。并以稀疏表示(Sparse Representation,簡稱SR)與協(xié)同表示(Collaborative Representation,簡稱CR)兩個回歸模型為例子分別構(gòu)建了1-范數(shù)超圖和2-范數(shù)超圖來解決圖像聚類和分類問題。實驗表明1-范數(shù)超圖和2-范數(shù)超圖繼承了SR和CR算法的優(yōu)點。它們不僅比傳統(tǒng)超圖具有更強的判別能力,而且對噪聲和遮擋都具有良好的魯棒性。<

6、br> ?、茚槍鹘y(tǒng)屬性學(xué)習(xí)方法無法利用屬性之間相關(guān)性的缺點,本文提出了超圖正則化屬性預(yù)測器(Hypergraph regularized Attribute Predictor,簡稱HAP)算法。受DHLP算法以及基于超圖的直推算法的啟發(fā),HAP算法利用屬性標(biāo)簽有監(jiān)督地構(gòu)建一個超圖來直觀地描繪樣本之間屬性關(guān)系(每條超邊對應(yīng)一個屬性關(guān)系)并把屬性預(yù)測問題視作一個正則化超圖分割問題。在分割超圖過程中,如果一個頂點集(樣本集)共享大量的超邊

7、,分割這個頂點集將會招致嚴(yán)重的懲罰。因此,屬性之間相關(guān)關(guān)系在HAP算法中能夠很好地保留。在HAP算法中,超圖切被視為樣本的屬性預(yù)測,最優(yōu)的超圖切可以通過同時最小化超圖結(jié)構(gòu)的損失和屬性預(yù)測誤差學(xué)習(xí)獲得。從圖嵌入角度上來看,超圖切是超圖的嵌入,因此屬性預(yù)測器可以通過學(xué)習(xí)樣本空間到超圖嵌入空間的映射導(dǎo)出。三個權(quán)威屬性圖像數(shù)據(jù)庫上的實驗結(jié)果表明HAP算法在零/N樣本學(xué)習(xí)、屬性預(yù)測以及圖像數(shù)據(jù)分類中都能取得良好的表現(xiàn)。此外,值得一提的是HAP算法

8、應(yīng)該是首個有監(jiān)督超圖分類器。
 ?、轂榱嗽趯傩詫W(xué)習(xí)過程中靈活地利用額外可用信息,HAP算法被進一步推廣為一個多圖分割模型。在該模型中,一個圖或超圖被利用來描繪不同額外信息并被作為懲罰項加入到HAP模型以保證在屬性預(yù)測中能夠充分考慮到這些額外信息的損失。本文以類別信息為例子提出了類特定HAP算法(Class Specific HAP,簡稱CSHAP)以利用類別信息進一步提升屬性的分類能力。實驗結(jié)果驗證了我們提出的假設(shè)。
 ?、?/p>

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論