2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩136頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、回歸模型是一種常用于數(shù)據(jù)預(yù)測(cè)的數(shù)學(xué)模型,其在目標(biāo)檢測(cè)、人臉識(shí)別和行為識(shí)別等領(lǐng)域都有廣泛的應(yīng)用。傳統(tǒng)回歸模型可以在少量樣本上擬合相對(duì)簡(jiǎn)單的非線性函數(shù)。但當(dāng)前回歸任務(wù)需要面臨復(fù)雜的問題和處理大量的數(shù)據(jù),傳統(tǒng)回歸模型在建立復(fù)雜映射關(guān)系和提取高層數(shù)據(jù)特征等方面都面臨巨大挑戰(zhàn)。而深度神經(jīng)網(wǎng)絡(luò)作為一種近期興起的技術(shù),具有從大量數(shù)據(jù)中自動(dòng)地學(xué)習(xí)復(fù)雜映射關(guān)系和高層數(shù)據(jù)特征的能力。因此,采用基于深度神經(jīng)網(wǎng)絡(luò)的回歸模型能夠有效地減少上述問題對(duì)數(shù)據(jù)預(yù)測(cè)的影響

2、,提高回歸的準(zhǔn)確度。
  本文圍繞基于深度神經(jīng)網(wǎng)絡(luò)的回歸模型開展兩個(gè)方面的研究,分別為基于深度神經(jīng)網(wǎng)絡(luò)構(gòu)造的回歸模型研究和基于深度神經(jīng)網(wǎng)絡(luò)特征的回歸模型研究,以克服傳統(tǒng)回歸模型在建立復(fù)雜映射關(guān)系和提取高層數(shù)據(jù)特征方面存在的局限性。由于圖像中頭部姿態(tài)估計(jì)是計(jì)算機(jī)視覺領(lǐng)域中典型的回歸問題,視頻中人體行為分類是計(jì)算機(jī)視覺中廣義的回歸問題。因此,本文針對(duì)這兩個(gè)不同任務(wù)設(shè)計(jì)不同的回歸模型。這樣不僅可以提高頭部姿態(tài)估計(jì)和人體行為分類的準(zhǔn)確度,

3、還可以獲得構(gòu)建基于深度神經(jīng)網(wǎng)絡(luò)回歸模型的方法。本文的主要研究?jī)?nèi)容如下:
  1)為了克服傳統(tǒng)頭部姿態(tài)估計(jì)方法對(duì)姿態(tài)初始值和人臉特征點(diǎn)準(zhǔn)確定位的依賴問題,本文提出了一種基于級(jí)聯(lián)深度神經(jīng)網(wǎng)絡(luò)的頭部姿態(tài)估計(jì)方法。該方法采用基于深度神經(jīng)網(wǎng)絡(luò)的級(jí)聯(lián)框架和多層次的回歸算法,逐步地對(duì)頭部姿態(tài)進(jìn)行估計(jì)。首先,構(gòu)建一種級(jí)聯(lián)深度神經(jīng)網(wǎng)絡(luò)模型,逐層地估計(jì)人臉圖像的初始姿態(tài)和姿態(tài)偏差值。之后,采用一種多層回歸算法,根據(jù)全局網(wǎng)絡(luò)層的初始姿態(tài)和局部網(wǎng)絡(luò)層的偏

4、差值,由粗到細(xì)地微調(diào)頭部姿態(tài)。實(shí)驗(yàn)結(jié)果表明,在無需姿態(tài)初始值和人臉特征點(diǎn)準(zhǔn)確定位的情況下,該方法依然能夠較好地進(jìn)行頭部姿態(tài)估計(jì)。
  2)為了對(duì)頭部姿態(tài)多個(gè)自由度之間的關(guān)聯(lián)性進(jìn)行建模,本文提出了一種基于尺度不變約束深度神經(jīng)網(wǎng)絡(luò)的頭部姿態(tài)估計(jì)方法。該方法根據(jù)不同姿態(tài)下臉部變化的規(guī)律,構(gòu)建基于尺度不變約束深度神經(jīng)網(wǎng)絡(luò)的回歸模型,進(jìn)一步降低頭部姿態(tài)估計(jì)的平均絕對(duì)誤差。首先,分層地提取人臉圖像的全局特征和局部特征。然后,通過全局網(wǎng)絡(luò)層和多

5、個(gè)局部網(wǎng)絡(luò)層分別估計(jì)初始姿態(tài)和姿態(tài)偏差值。最后,根據(jù)姿態(tài)偏差不斷地調(diào)整初始姿態(tài),以獲得最終頭部姿態(tài)。另外,分析不同個(gè)體不同姿態(tài)下和相同個(gè)體不同姿態(tài)下人臉圖像的變化特點(diǎn),為基于尺度不變約束深度神經(jīng)網(wǎng)絡(luò)的估計(jì)方法提供經(jīng)驗(yàn)依據(jù)。實(shí)驗(yàn)結(jié)果表明,該模型具有較好的泛化能力,不但可以實(shí)現(xiàn)頭部姿態(tài)單個(gè)自由度的估計(jì),還可以實(shí)現(xiàn)頭部姿態(tài)多個(gè)自由度的估計(jì)。并且,該方法比基于級(jí)聯(lián)深度神經(jīng)網(wǎng)絡(luò)的頭部姿態(tài)估計(jì)方法取得更好的估計(jì)結(jié)果,但是計(jì)算時(shí)間較長(zhǎng)。因此,該方法適

6、用于速度要求一般,準(zhǔn)確率要求稍高的場(chǎng)景中。
  3)為了克服現(xiàn)有頭部姿態(tài)估計(jì)方法在訓(xùn)練數(shù)據(jù)不充分、不完整情況下的估計(jì)效果不佳問題,本文提出了一種基于姿態(tài)敏感多變量標(biāo)記分布學(xué)習(xí)的頭部姿態(tài)估計(jì)方法。該方法采用深度神經(jīng)網(wǎng)絡(luò)提取的魯棒姿態(tài)特征,構(gòu)建一種基于姿態(tài)敏感多變量標(biāo)記分布學(xué)習(xí)的頭部姿態(tài)估計(jì)模型實(shí)現(xiàn)頭部姿態(tài)估計(jì)。首先,利用深度神經(jīng)網(wǎng)絡(luò)提取人臉圖像的魯棒姿態(tài)征。之后,采用多變量標(biāo)記分布學(xué)習(xí)算法預(yù)測(cè)姿態(tài)特征的標(biāo)記分布,并根據(jù)該分布計(jì)算最終

7、的頭部姿態(tài)。在多變量標(biāo)記分布學(xué)習(xí)算法中,為每個(gè)姿態(tài)標(biāo)記一個(gè)分布來描述每個(gè)姿態(tài)標(biāo)簽對(duì)單張人臉圖像的重要程度,在一定程度上緩解了樣本不充足、不充分的問題。實(shí)驗(yàn)結(jié)果表明,該方法在訓(xùn)練樣本不充分和不均衡的情況下實(shí)現(xiàn)不同頭部姿態(tài)的估計(jì)。
  4)為了充分利用鄰近區(qū)域先驗(yàn)知識(shí)并使行為表征有較明確的含義,本文提出一種基于遞歸神經(jīng)網(wǎng)絡(luò)和兩階段回歸的人體行為分類方法。該方法利用回聲狀態(tài)網(wǎng)絡(luò)提取能刻畫行為序列幾何結(jié)構(gòu)的局部特征,并將鄰近區(qū)域的先驗(yàn)知識(shí)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論