2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩123頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、注意是人類(lèi)信息加工過(guò)程中一項(xiàng)重要的心理調(diào)節(jié)機(jī)制,它能夠?qū)τ邢薜男畔①Y源進(jìn)行加工分配,使感知具備一定的選擇能力。人類(lèi)視覺(jué)系統(tǒng)這種在面對(duì)復(fù)雜場(chǎng)景時(shí),能夠迅速將注意力集中在少數(shù)幾個(gè)顯著的視覺(jué)對(duì)象上的過(guò)程被人們稱(chēng)為視覺(jué)注意選擇。視覺(jué)注意機(jī)制的研究,不但有助于探索人類(lèi)視覺(jué)信息處理的工作機(jī)理,而且在圖像分析領(lǐng)域中也有重要應(yīng)用價(jià)值。如果能夠?qū)⑦@種視覺(jué)注意機(jī)制引入到圖像分析領(lǐng)域,將計(jì)算資源優(yōu)先分配給那些容易引起觀(guān)察者注意的圖像區(qū)域,那么必將極大地提高現(xiàn)

2、有圖像分析方法的工作效率。
  本文主要研究如何設(shè)計(jì)一種實(shí)用的引入選擇性注意機(jī)制的視覺(jué)顯著性區(qū)域檢測(cè)算法;如何在注意焦點(diǎn)的引導(dǎo)下對(duì)圖像重構(gòu);如何將注意機(jī)制引入到特定圖像(人臉)的識(shí)別和視覺(jué)搜索中。概括而言,本文的主要研究工作包括:
  1.基于人類(lèi)視覺(jué)系統(tǒng)尺度選擇的特點(diǎn),提出了一種通過(guò)對(duì)圖像的頻域特征進(jìn)行多尺度分析來(lái)計(jì)算顯著性的方法。生理學(xué)上的實(shí)驗(yàn)證明人們對(duì)不同頻率視覺(jué)信息的敏感閾值不同,此閾值可以用對(duì)比度敏感函數(shù)(Cont

3、rast Sensitive Function,CSF)表示。本文首先將人眼真實(shí)視點(diǎn)在圖像尺度空間進(jìn)行統(tǒng)計(jì)分析,得到更加準(zhǔn)確的敏感度曲線(xiàn),并得出人類(lèi)視覺(jué)系統(tǒng)對(duì)中低頻信號(hào)更加敏感。結(jié)合這一曲線(xiàn),本文利用高斯帶通濾波器對(duì)圖像中的各頻段賦予不同的權(quán)值,以此計(jì)算圖像的顯著性區(qū)域。圖像和視頻中的實(shí)驗(yàn)證明了本方法的優(yōu)越性,尤其是對(duì)于復(fù)雜重復(fù)性紋理場(chǎng)景下的顯著性檢測(cè)具有更好的結(jié)果。本算法時(shí)間復(fù)雜度低,對(duì)圖像和視頻的處理速度快,并且檢測(cè)效果較好。

4、>  2.目前大部分流行的人臉表示法都是基于均勻網(wǎng)格采樣,然而能夠提供判別信息的只是人臉中的一小部分區(qū)域。心理學(xué)家研究表明,人類(lèi)視覺(jué)系統(tǒng)通過(guò)視網(wǎng)膜的空間變換采樣和視點(diǎn)的非均勻分布對(duì)不同的人臉區(qū)域賦予不同的權(quán)重。本文通過(guò)視點(diǎn)及其視網(wǎng)膜成像對(duì)人臉圖像進(jìn)行重構(gòu)。通過(guò)對(duì)圖像的不同區(qū)域采用不同的高斯平滑算子來(lái)平滑。并通過(guò)分析人眼真實(shí)視點(diǎn)、計(jì)算模型產(chǎn)生的注意焦點(diǎn)、隨機(jī)產(chǎn)生的點(diǎn)及均勻網(wǎng)格采樣這四種不同的焦點(diǎn)源對(duì)人臉圖像重構(gòu)的效果,驗(yàn)證了非均勻分布的視

5、點(diǎn)對(duì)于重建人臉區(qū)域的有效性,給后續(xù)的人臉識(shí)別算法提供了有力的證據(jù)。
  3.心理學(xué)實(shí)驗(yàn)表明,對(duì)于一幅輸入圖像,在人們關(guān)注局部區(qū)域之前,人類(lèi)視覺(jué)系統(tǒng)首先會(huì)有一個(gè)全局的認(rèn)識(shí),然后視點(diǎn)會(huì)相繼落在比較感興趣的區(qū)域(局部)。本文通過(guò)模仿人類(lèi)系統(tǒng)處理信息的方式,設(shè)計(jì)了一種基于選擇性注意的人臉識(shí)別方法。本文通過(guò)提取圖像的全局特征來(lái)模擬視點(diǎn)產(chǎn)生之前人類(lèi)視覺(jué)系統(tǒng)所獲取的全局特征,然后利用人眼真實(shí)視點(diǎn)得到人臉圖像上的顯著性圖,根據(jù)顯著性圖將人臉圖像劃

6、分成注視區(qū)域和非注視區(qū)域,模仿人類(lèi)視網(wǎng)膜成像來(lái)提取局部特征。最后通過(guò)融合兩種特征來(lái)實(shí)現(xiàn)人臉識(shí)別。本文將上述實(shí)驗(yàn)框架在公開(kāi)的人臉數(shù)據(jù)庫(kù)和一般目標(biāo)數(shù)據(jù)庫(kù)上進(jìn)行了測(cè)試,實(shí)驗(yàn)結(jié)果證明,將人類(lèi)視覺(jué)系統(tǒng)的選擇性注意引入到人臉識(shí)別中,不僅降低了編碼量,而且提高了識(shí)別的性能,證明了將人類(lèi)視覺(jué)系統(tǒng)的選擇性注意引入到人臉識(shí)別中的合理性。
  4.視點(diǎn)變化在人類(lèi)視覺(jué)信息獲取和目標(biāo)搜索上起著重要的作用,本文提出了一個(gè)基于神經(jīng)元感受野不變性特征提取和眼動(dòng)控

7、制機(jī)制的人臉目標(biāo)及其特征搜索系統(tǒng)。作為一個(gè)實(shí)例,系統(tǒng)應(yīng)用到人眼中心搜索。這一系統(tǒng)的主要機(jī)制是:在學(xué)習(xí)階段,在圖像上均勻設(shè)置初始視點(diǎn)位置,令系統(tǒng)感知和學(xué)習(xí)需要搜索的人臉目標(biāo)及其特征的空間方向、距離和尺度;通過(guò)高層認(rèn)知神經(jīng)元發(fā)出控制使視點(diǎn)由初始位置移動(dòng)到人臉目標(biāo)及其特征的位置上;在實(shí)際運(yùn)行階段,只要任意在圖像上給出一個(gè)隨機(jī)初始視點(diǎn)位置,系統(tǒng)就會(huì)根據(jù)學(xué)習(xí)和記憶經(jīng)驗(yàn)指揮和控制視點(diǎn)自動(dòng)地向目標(biāo)移動(dòng),通過(guò)四至五步的視點(diǎn)移動(dòng)最終使視點(diǎn)與目標(biāo)特征(如眼

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論