版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、人體行為識(shí)別目前已經(jīng)廣泛應(yīng)用于社會(huì)生產(chǎn)生活的許多領(lǐng)域,例如銀行、車站、機(jī)場(chǎng)、商場(chǎng)、道路、辦公樓和居民小區(qū)等場(chǎng)所的視頻監(jiān)控系統(tǒng)。目前,可應(yīng)用的場(chǎng)合包括了運(yùn)動(dòng)捕捉、監(jiān)控視頻分析、視頻分類、體育運(yùn)動(dòng)與娛樂視頻處理、智能家居開發(fā)、人機(jī)交互、環(huán)境控制與監(jiān)視等等。
目前主要的人體行為識(shí)別方法大致可以分為基于人體模型跟蹤、基于光流直方圖以及基于局部時(shí)空特征的方法三大類,它們都有各自的不足之處?;谌梭w模型跟蹤的方法要求提取精確的人體模板,該
2、方法的魯棒性相對(duì)較差。基于光流直方圖的方法采用光流直方圖進(jìn)行人體動(dòng)作識(shí)別。但是光流對(duì)背景噪音以及不同光照強(qiáng)度的魯棒性很差?;诰植繒r(shí)空特征的方法通過濾波和非極值抑制法提取出興趣點(diǎn),并進(jìn)一步提取人體動(dòng)作的局部時(shí)空特征作為識(shí)別的依據(jù)。該方法適用于低分辨率的視頻數(shù)據(jù)。并且局部時(shí)空特征的提取對(duì)尺度伸縮、拍攝視角和光照亮暗與否不敏感。在前人研究基礎(chǔ)上,本課題提出了基于兩種不同特征的人體行為識(shí)別方法,分別是基于形狀上下文和基于SURF(Speede
3、d-Up Robust Features,加速健壯特征)興趣點(diǎn)的人體行為識(shí)別算法。
基于形狀上下文的方法是一種基于關(guān)鍵輪廓的人體行為識(shí)別方法。該方法定義一種基于形狀上下文(Shape Context)的形狀距離。根據(jù)最小形狀距離準(zhǔn)則,采用K中心點(diǎn)聚類算法提取出每類行為的若干關(guān)鍵輪廓。在識(shí)別階段,給定一個(gè)動(dòng)作視頻,計(jì)算視頻中每一幀與每類行為關(guān)鍵輪廓的距離,并給每類行為投票,最后將該動(dòng)作視頻標(biāo)識(shí)為得票最多的動(dòng)作。實(shí)驗(yàn)結(jié)果表明,形狀
4、上下文應(yīng)用于精確完整的人體輪廓匹配時(shí)效果很好,并且基于形狀距離的K中心點(diǎn)聚類算法提取出的一組關(guān)鍵輪廓足以完整地描述一種人體動(dòng)作。
為了提高算法對(duì)遮擋、重疊、尺度變化和光照變化的魯棒性,基于 SURF的方法將具有旋轉(zhuǎn)不變性、尺度不變性和仿射不變性等優(yōu)勢(shì)的SURF興趣點(diǎn)應(yīng)用于人體行為識(shí)別中。該算法采用 SURF檢測(cè)器檢測(cè)出時(shí)空興趣點(diǎn),通過累積一定時(shí)間內(nèi)在時(shí)間和空間兩維上特征顯著的興趣點(diǎn),構(gòu)造出運(yùn)動(dòng)軌跡點(diǎn)集,并從運(yùn)動(dòng)軌跡點(diǎn)集中提取與
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于形狀上下文的物體匹配與識(shí)別研究.pdf
- 基于形狀上下文的驗(yàn)證碼識(shí)別研究.pdf
- 基于形狀上下文的離線簽名鑒別.pdf
- 基于顏色信息的SIFT算法和形狀上下文的人臉識(shí)別研究.pdf
- 基于形狀上下文的圖像內(nèi)容檢索方法研究.pdf
- 基于社會(huì)上下文約束和物品上下文約束的協(xié)同推薦.pdf
- 基于上下文的形狀匹配算法研究與實(shí)現(xiàn).pdf
- 基于形狀上下文的現(xiàn)場(chǎng)足跡比對(duì)算法研究.pdf
- 基于上下文感知的網(wǎng)絡(luò)用戶行為分析.pdf
- 基于上下文的機(jī)場(chǎng)目標(biāo)識(shí)別方法.pdf
- 基于興趣點(diǎn)和形狀特征的動(dòng)作識(shí)別.pdf
- 基于上下文感知的中文新詞識(shí)別技術(shù)研究.pdf
- 基于上下文的隱喻理解研究.pdf
- 上下文感知推薦.pdf
- 基于上下文的目標(biāo)檢測(cè)與識(shí)別方法研究.pdf
- 上下文感知手寫數(shù)學(xué)公式識(shí)別.pdf
- 淺色背景下基于形狀上下文的手形認(rèn)證方法研究.pdf
- 基于上下文的目標(biāo)檢測(cè)研究.pdf
- 基于上下文的圖像標(biāo)注研究.pdf
- 基于深度學(xué)習(xí)和上下文語義的視覺內(nèi)容識(shí)別與分析研究.pdf
評(píng)論
0/150
提交評(píng)論