版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、視覺(jué)位姿估計(jì)是指利用附屬于運(yùn)動(dòng)體(如車(chē)輛、機(jī)器人等)的視覺(jué)傳感器采集的圖像數(shù)據(jù)來(lái)估計(jì)其位姿變換的過(guò)程,是基于視覺(jué)技術(shù)的定位導(dǎo)航、三維重建、軌跡推算等領(lǐng)域的重要研究方向。該工作目前主要集中在視覺(jué)里程計(jì)的算法研究中,是視覺(jué)SLAM系統(tǒng)的關(guān)鍵構(gòu)成模塊,具有廣泛的應(yīng)用場(chǎng)景。
通常,視覺(jué)里程算法計(jì)沿襲了特征提取、特征匹配和追蹤定位的經(jīng)典流程,并利用其它優(yōu)化策略調(diào)優(yōu)。但是面對(duì)復(fù)雜場(chǎng)景時(shí),該類(lèi)方法往往存在穩(wěn)定性不足的缺點(diǎn)。深度學(xué)習(xí)技術(shù)在處理
2、圖像理解任務(wù)時(shí)表現(xiàn)出強(qiáng)大的特征抽象和表達(dá)能力,為視覺(jué)位姿估計(jì)問(wèn)題提供了新的研究思路。該方法能夠從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)相機(jī)位姿的表征方式,不需要依賴任何相機(jī)參數(shù),而且能夠?qū)W習(xí)到場(chǎng)景的真實(shí)尺度,具有傳統(tǒng)方法不具備的優(yōu)勢(shì)。因此,本文針對(duì)基于深度神經(jīng)網(wǎng)絡(luò)的單目視覺(jué)位姿估計(jì)方法進(jìn)行研究,并完成以下工作:
1.結(jié)合任務(wù)性質(zhì)和深度學(xué)習(xí)特點(diǎn),將單目視覺(jué)位姿估計(jì)問(wèn)題建模為一種有監(jiān)督的回歸學(xué)習(xí)問(wèn)題,進(jìn)行分析和設(shè)計(jì)整體算法框架,并根據(jù)特征表達(dá)方式的不同將
3、該問(wèn)題分為兩個(gè)層面進(jìn)行研究。
2.利用稠密光流能夠表征幀間運(yùn)動(dòng)信息的特性,提出了一種基于雙流卷積神經(jīng)網(wǎng)絡(luò)的位姿估計(jì)模型。該方法將以圖像幀和光流圖為輸入的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行級(jí)聯(lián)以完成特征提取,利用共享的全連接層和歐氏距離損失函數(shù)直接預(yù)測(cè)幀間位姿向量,進(jìn)而構(gòu)建位姿回歸模型。該方法既簡(jiǎn)化了特征提取過(guò)程,又能夠融合不同層次的特征,提高了模型的預(yù)測(cè)精度。
3.進(jìn)一步地,對(duì)上述算法進(jìn)行改進(jìn),設(shè)計(jì)了一種基于端到端學(xué)習(xí)的位姿估計(jì)模型。
4、該算法模型僅以圖像幀作為輸入,融合光流提取網(wǎng)絡(luò)和位姿估計(jì)網(wǎng)絡(luò),利用自編碼網(wǎng)絡(luò)重構(gòu)光流場(chǎng),提高光流特征的魯棒性。通過(guò)位姿估計(jì)誤差和光流重構(gòu)誤差雙重約束,保證網(wǎng)絡(luò)的訓(xùn)練效果,提高模型的位姿估計(jì)性能。同時(shí),該算法將特征提取過(guò)程在深度學(xué)習(xí)框架下實(shí)現(xiàn),無(wú)需引入外部算法,這種端到端的訓(xùn)練方式使得模型有潛力得到性能上的整體提升。
綜上,本文基于深度神經(jīng)網(wǎng)絡(luò)逐步設(shè)計(jì)實(shí)現(xiàn)了端到端的位姿估計(jì)模型,并在公開(kāi)數(shù)據(jù)集上設(shè)計(jì)仿真實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明該算法在
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于單目視覺(jué)的視覺(jué)伺服與位姿估計(jì).pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人體姿勢(shì)估計(jì)研究.pdf
- 基于視覺(jué)的位姿估計(jì)與點(diǎn)目標(biāo)運(yùn)動(dòng)測(cè)量方法研究.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤方法研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的光場(chǎng)圖像深度估計(jì).pdf
- 基于GPU的深度神經(jīng)網(wǎng)絡(luò)優(yōu)化方法研究.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的場(chǎng)景分類(lèi)方法研究.pdf
- 雙目視覺(jué)位姿估計(jì)算法研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的熟料顆粒方法研究.pdf
- 基于單目視覺(jué)的物體位姿估計(jì)方法研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的光場(chǎng)圖像深度估計(jì)技術(shù)研究.pdf
- 基于優(yōu)化RBF神經(jīng)網(wǎng)絡(luò)的并聯(lián)機(jī)器人位姿檢測(cè).pdf
- 基于神經(jīng)網(wǎng)絡(luò)的UUV視覺(jué)識(shí)別與定位方法研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的腦組織分割方法研究.pdf
- 基于視覺(jué)的無(wú)人機(jī)著陸段位姿估計(jì)及控制方法研究.pdf
- 基于改進(jìn)深度神經(jīng)網(wǎng)絡(luò)的特征提取方法研究.pdf
- 基于LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的TCP狀態(tài)估計(jì)方法研究.pdf
- 基于視覺(jué)的小型無(wú)人飛行器位姿估計(jì)與驗(yàn)證.pdf
- 無(wú)人機(jī)著陸位姿參數(shù)視覺(jué)估計(jì)研究.pdf
- 基于雙目手眼視覺(jué)的位姿測(cè)量方法的研究.pdf
評(píng)論
0/150
提交評(píng)論