版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、隨著智能計(jì)算、智能感知等技術(shù)的發(fā)展,人機(jī)交互技術(shù)與大家的日常生活結(jié)合的越來越緊密。手勢識(shí)別作為人機(jī)交互技術(shù)的一個(gè)重要研究領(lǐng)域,近年來已經(jīng)成為一個(gè)研究熱點(diǎn)。傳統(tǒng)的手勢識(shí)別技術(shù)主要基于鼠標(biāo)器和筆、視覺及數(shù)據(jù)手套等方法,手勢識(shí)別方法主要有模板匹配、神經(jīng)網(wǎng)絡(luò)和統(tǒng)計(jì)分析等,這些技術(shù)和方法在實(shí)際應(yīng)用中都存在一定的局限性,例如基于視覺的手勢識(shí)別方法容易受到光照和復(fù)雜背景等干擾,導(dǎo)致識(shí)別率較低;基于數(shù)據(jù)手套的識(shí)別方法,用戶需要佩戴特殊的傳感設(shè)備,非常不
2、方便。2010年,微軟公司發(fā)明的Kinect體感設(shè)備問世,該設(shè)備可以提取手勢的深度數(shù)據(jù),很好地克服了光照和復(fù)雜背景等的干擾,使手勢識(shí)別技術(shù)邁上一個(gè)新的臺(tái)階。
本論文通過分析手勢識(shí)別技術(shù)的國內(nèi)外研究現(xiàn)狀,發(fā)現(xiàn)基于視覺的手勢識(shí)別方法中手勢分割的效果較差,而且部分算法不具備旋轉(zhuǎn)、縮放和平移不變性。為了克服上述缺點(diǎn),本論文利用Kinect可以獲取深度數(shù)據(jù)和SURF(Speeded Up RobustFeature)算法具有旋轉(zhuǎn)、縮放和
3、平移不變性的優(yōu)點(diǎn),提出了一種基于Kinect深度信息的靜態(tài)手勢識(shí)別方法,主要完成了以下幾個(gè)方面的工作:
1、基于深度信息的手勢分割方法。首先,從Kinect獲取的深度數(shù)據(jù)中提取用戶和背景的索引值,根據(jù)用戶和背景索引值不同的原理,將人體與背景進(jìn)行分割,然后根據(jù)手勢與人體深度值的不同,通過設(shè)置閾值的方法,分割出完整手勢。
2、基于改進(jìn)的SURF算法的特征提取方法。SURF算法主要包括關(guān)鍵點(diǎn)檢測、主方向計(jì)算和特征描述三個(gè)部
4、分,本論文根據(jù)二值圖像的特點(diǎn),對(duì)關(guān)鍵點(diǎn)檢測和主方向計(jì)算兩個(gè)方面進(jìn)行改進(jìn),提出一種新的特征提取算法。
3、基于貝葉斯正則化BP神經(jīng)網(wǎng)絡(luò)的分類方法。一般的BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法容易產(chǎn)生過擬合現(xiàn)象,為克服這一缺點(diǎn),本論文采用貝葉斯正則化BP神經(jīng)網(wǎng)絡(luò)作為手勢分類的方法,并與其他方法進(jìn)行比較,實(shí)驗(yàn)表明,該方法的泛化能力比較理想。
4、本論文通過分析手指間的夾角特征提出一種基于多分類器決策級(jí)融合的手勢分類方法。該方法將手指間的最大
5、夾角作為特征提取和分類的依據(jù),建立一個(gè)新的分類器,將貝葉斯正則化BP神經(jīng)網(wǎng)絡(luò)方法的分類結(jié)果與該方法的分類結(jié)果進(jìn)行融合處理,得到最終的識(shí)別結(jié)果。
最后,本論文針對(duì)數(shù)字手勢1-8,對(duì)提出的手勢識(shí)別方法進(jìn)行驗(yàn)證,分析誤差和識(shí)別率等性能指標(biāo),初步驗(yàn)證了該方法的可行性。通過實(shí)驗(yàn)分析,該方法能夠克服光照和復(fù)雜背景等干擾,因此基于Kinect深度信息的手勢識(shí)別方法克服了基于視覺方法的缺點(diǎn),為手勢識(shí)別技術(shù)提供了新的研究方向。該方法可以擴(kuò)展到多
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于Kinect深度信息的手勢識(shí)別研究.pdf
- 基于深度圖像的靜態(tài)手勢識(shí)別方法研究.pdf
- 基于Kinect深度信息的手勢識(shí)別.pdf
- 基于Kinect深度信息的動(dòng)態(tài)手勢識(shí)別.pdf
- 基于Kinect手勢識(shí)別方法的研究與實(shí)現(xiàn).pdf
- 基于Kinect深度圖像的靜態(tài)手勢識(shí)別的研究與應(yīng)用.pdf
- 基于Kinect深度數(shù)據(jù)及組合特征的靜態(tài)手勢識(shí)別研究.pdf
- 基于kinect深度圖像的手勢識(shí)別研究
- 基于Kinect深度圖像的手勢識(shí)別研究.pdf
- 基于Kinect深度圖像的手勢識(shí)別算法研究.pdf
- 基于深度信息和手形特征的靜態(tài)手勢識(shí)別.pdf
- 基于Kinect傳感器的動(dòng)靜態(tài)手勢識(shí)別研究.pdf
- 基于深度圖像的手勢識(shí)別方法與應(yīng)用研究.pdf
- 基于Kinect深度圖像的動(dòng)態(tài)手勢識(shí)別的研究.pdf
- 基于Kinect的面部表情識(shí)別方法研究.pdf
- 基于深度信息的動(dòng)態(tài)手勢識(shí)別研究.pdf
- 基于PCA-HOG與LBP特征融合的靜態(tài)手勢識(shí)別方法研究.pdf
- 基于Kinect骨骼信息的手勢識(shí)別及應(yīng)用.pdf
- 基于視頻的手勢識(shí)別方法研究.pdf
- 基于Kinect骨骼關(guān)節(jié)信息的視角不變步態(tài)識(shí)別方法.pdf
評(píng)論
0/150
提交評(píng)論