版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、隨著互聯(lián)網(wǎng)時(shí)代的到來和科學(xué)技術(shù)的不斷進(jìn)步,計(jì)算機(jī)逐漸可以像人一樣對視頻信息進(jìn)行獲取、傳輸、處理、存儲(chǔ)和理解。因此,基于視頻的人體動(dòng)作識(shí)別方法研究一直是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)研究熱點(diǎn),并且在人機(jī)交互、醫(yī)療看護(hù)、智能監(jiān)控、視頻檢索、以及虛擬現(xiàn)實(shí)等多個(gè)方面都具有廣闊的應(yīng)用前景。人體動(dòng)作識(shí)別由于發(fā)展迅速已經(jīng)取得了一些重要的研究成果和可行的應(yīng)用技術(shù)。其中,有效特征可分為全局特征和局部特征;分類方法則包含支持向量機(jī),隱馬爾可夫模型和條件隨機(jī)場。在整個(gè)
2、算法流程中,特征選取的好壞會(huì)直接影響整個(gè)系統(tǒng)的性能。然而,傳統(tǒng)的全局特征通常要通過背景差分和目標(biāo)跟蹤等方法獲得興趣區(qū)域,利用輪廓、邊緣或者光流等特征進(jìn)行描述,所以計(jì)算復(fù)雜度較高,并且對光照、噪聲和部分遮擋十分敏感;即使將傳統(tǒng)的局部特征建立在興趣點(diǎn)檢測的基礎(chǔ)上,雖然魯棒性相對可以提高,但是以局部特征表達(dá)整體特性的過程必然會(huì)帶來信息的丟失,此外,傳統(tǒng)局部特征表達(dá)不夠直觀,也很難做到精確定位。
本文基于圖像識(shí)別領(lǐng)域物體檢測的BING
3、特征,加入時(shí)域的梯度信息,提出一種新的二進(jìn)制加速時(shí)空標(biāo)準(zhǔn)梯度特征(ST-BING),并成功將其應(yīng)用在視頻中的人體動(dòng)作識(shí)別及定位中。ST-BING由空間標(biāo)準(zhǔn)梯度特征(S-BING)和時(shí)間標(biāo)準(zhǔn)梯度特征(T-BING)組成。其中,T-BING捕捉了不同類別動(dòng)作的運(yùn)動(dòng)信息,S-BING記錄了動(dòng)作執(zhí)行者的靜態(tài)信息。由于ST-BING對視頻的每一幀都進(jìn)行多尺度滑動(dòng)窗口處理,從而弱化了復(fù)雜背景對人體動(dòng)作識(shí)別和定位的干擾,并且對不同動(dòng)作具有一定的尺度不
4、變性,增強(qiáng)了系統(tǒng)的魯棒性。將ST-BING用二進(jìn)制近似表示,在特征提取,動(dòng)作分類和測試環(huán)節(jié)都用位運(yùn)算,極大降低了計(jì)算的復(fù)雜度。同時(shí),在動(dòng)作分類時(shí)使用級(jí)聯(lián)SVM模型,與傳統(tǒng)的SVM相比,該模型考慮了不同尺度的窗口包含動(dòng)作的可能性差異,提高了動(dòng)作識(shí)別的準(zhǔn)確率。在UCF-Sports數(shù)據(jù)庫上進(jìn)行了實(shí)驗(yàn),采用K次交叉驗(yàn)證法。其中,人體動(dòng)作識(shí)別和定位的準(zhǔn)確率分別達(dá)到了85.4%和44.8%,在目前主流的個(gè)人計(jì)算機(jī)硬件配置下對視頻幀的識(shí)別和定位速度
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于視頻的人體動(dòng)作識(shí)別方法研究.pdf
- 基于分層時(shí)空特征模型的人體動(dòng)作識(shí)別方法研究.pdf
- 基于關(guān)節(jié)模型的人體動(dòng)作識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的人體動(dòng)作識(shí)別方法研究.pdf
- 基于立體視覺的人體動(dòng)作識(shí)別方法研究.pdf
- 基于Kinect骨骼數(shù)據(jù)的人體動(dòng)作識(shí)別方法研究.pdf
- 基于流形學(xué)習(xí)的人體動(dòng)作識(shí)別方法研究.pdf
- 基于形狀特征的人體行為識(shí)別方法研究.pdf
- 基于概率特征的在線人體動(dòng)作識(shí)別方法研究.pdf
- 姿態(tài)魯棒的人臉圖像識(shí)別方法研究.pdf
- 基于時(shí)空局部特征的人體行為識(shí)別方法研究.pdf
- 基于虹膜的人體特征識(shí)別方法研究與實(shí)現(xiàn).pdf
- 基于加速度傳感器的人體動(dòng)作識(shí)別方法研究.pdf
- 基于整體特征的人體動(dòng)作的識(shí)別.pdf
- 基于多特征融合的人體基本行為識(shí)別方法研究.pdf
- 基于視頻和三維動(dòng)作捕捉數(shù)據(jù)的人體動(dòng)作識(shí)別方法的研究.pdf
- 姿態(tài)魯棒的人臉圖像性別識(shí)別方法研究與應(yīng)用.pdf
- 光照和表情魯棒的人臉圖像識(shí)別方法研究.pdf
- 基于模型的人體行為識(shí)別方法研究.pdf
- 基于時(shí)空興趣點(diǎn)和詞袋模型的人體動(dòng)作識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論