基于稀疏表示的在線目標(biāo)跟蹤研究.pdf_第1頁
已閱讀1頁,還剩182頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、目標(biāo)跟蹤的主要目的是獲得目標(biāo)在視頻或者圖像序列中每一時刻的運(yùn)動狀態(tài),包括位置、大小等,進(jìn)而獲得其在整段視頻中的運(yùn)動軌跡。作為圖像(視頻)處理和模式識別領(lǐng)域的重要研究課題,目標(biāo)跟蹤具有廣闊的應(yīng)用前景。自問題提出以來,一系列方法相繼出現(xiàn),但仍然面臨諸多困難,尤其是光照變化、遮擋、尺度變化、場景混亂、姿態(tài)變化、圖像模糊和劇烈運(yùn)動等因素對目標(biāo)外觀的影響,已成為制約其在實際中進(jìn)一步應(yīng)用的關(guān)鍵。近年來,在線目標(biāo)跟蹤(Online ObjectTra

2、cking,OOT)逐漸成為目標(biāo)跟蹤領(lǐng)域的研究熱點,該類方法試圖根據(jù)目標(biāo)的外觀變化對跟蹤器進(jìn)行自適應(yīng)地調(diào)整與更新,在解決上述問題方面取得了更為令人滿意的效果。其中,隨著近年來信號稀疏表示、凸優(yōu)化理論以及壓縮感知的發(fā)展,利用信號稀疏性進(jìn)行目標(biāo)跟蹤的方法獲得了廣泛的關(guān)注。
  為此,本文針對目標(biāo)在場景中外觀變化情況下的跟蹤魯棒性問題,以目標(biāo)跟蹤為研究對象,以外觀變化場景下基于稀疏表示理論的在線目標(biāo)跟蹤為目標(biāo)展開研究。主要工作和創(chuàng)新點如

3、下:
  (1)基于稀疏表示理論,本文提出了一種基于選擇性稀疏外觀模型和時空分析的生成性在線跟蹤方法。首先,本文構(gòu)建選擇性稀疏外觀模型,該模型將目標(biāo)區(qū)域分割為相互重疊的圖像塊,利用關(guān)鍵點比例排序(Key Point Proportion Ranking,KPPR)算法構(gòu)建目標(biāo)區(qū)域的局部重要性評價,以最重要的部分圖像塊為關(guān)鍵塊代表目標(biāo)。然后,方法構(gòu)建了基于時空分析的跟蹤處理過程。對選擇后的圖像關(guān)鍵塊進(jìn)行基于Elastic Net正則

4、化的時域加權(quán)稀疏表示,通過時空統(tǒng)計推斷的分析方法,完成目標(biāo)在當(dāng)前時刻的位置估計。在運(yùn)動建模部分,本文基于聯(lián)合高斯分布假設(shè)和針對過去時刻跟蹤信息的處理近似,構(gòu)建了一種遞推式的仿射運(yùn)動模型;在觀測建模部分,本文采用稀疏表示系數(shù)核加權(quán)跡的lp范數(shù)計算目標(biāo)候選樣本的置信度,并構(gòu)建置信度-坐標(biāo)空間(Confidence-Coordinate Space,CCS),然后通過較大置信度候選樣本在該空間內(nèi)的推演實現(xiàn)當(dāng)前幀目標(biāo)位置,使得目標(biāo)位置的估計相對

5、更為靈活,但不失魯棒。該跟蹤方法在本文構(gòu)建的由16段典型測試序列組成的基準(zhǔn)集合進(jìn)行了測評實驗,在其中14段序列實現(xiàn)了較為穩(wěn)定和魯棒的跟蹤,12段序列平均中心誤差在10像素以下,平均覆蓋率綜合達(dá)到了66.8%,其中1段測試序列對應(yīng)的平均中心誤差和平均覆蓋率在全文24種跟蹤方法測評對比中排名最優(yōu)。實驗的主客觀分析結(jié)果表明,與經(jīng)典的在線目標(biāo)跟蹤方法相比,本文所提出的生成性方法在跟蹤準(zhǔn)確率方面更具優(yōu)勢。
  (2)針對本文所提生成性跟蹤方

6、法存在的跟蹤器易受周圍環(huán)境負(fù)面影響的問題,結(jié)合稀疏表示理論中的字典學(xué)習(xí)問題,本文提出了一種基于增量結(jié)構(gòu)化字典學(xué)習(xí)的判別性在線跟蹤方法(Incremental Discriminative Structured Dictionary Learning for Visual Tracking,IDSDL-VT)。首先,本文構(gòu)建了一種增量判別性結(jié)構(gòu)化字典學(xué)習(xí)(Incremental Discriminative Structured Dict

7、ionary Learning,IDSDL)算法。該算法構(gòu)建與正負(fù)樣本圖像塊對應(yīng)的判別性字典,并通過局部更新(Local Update, LU)機(jī)制實現(xiàn)對字典的在線逐列更新,這填補(bǔ)了通過稀疏表示構(gòu)建分類模型的跟蹤方法未使用結(jié)構(gòu)化字典學(xué)習(xí)的空白。然后,本文采用學(xué)習(xí)后的字典以Elastic Net為正則項進(jìn)行稀疏表示,將表示系數(shù)作為特征通過K-組合投票(K-Combined Voting,KCV)方式進(jìn)行分類器的訓(xùn)練與判決,選取置信度投票最

8、大值對應(yīng)的樣本作為當(dāng)前幀的跟蹤結(jié)果。上述過程隨著時間推移重復(fù)進(jìn)行,從而實現(xiàn)了字典的增量化更新和目標(biāo)的連續(xù)化跟蹤。該跟蹤方法在基準(zhǔn)集合進(jìn)行了測評實驗,在其中14段序列實現(xiàn)了較為穩(wěn)定和魯棒的跟蹤,13段序列平均中心誤差在10像素以下,平均覆蓋率綜合達(dá)到了67.3%,其中3段測試序列對應(yīng)的平均中心誤差和平均覆蓋率在24種跟蹤方法測評對比中排名最優(yōu)。實驗的主客觀分析結(jié)果表明,IDSDL-VT有效解決了論文所提生成性跟蹤方法的問題;與經(jīng)典的在線目

9、標(biāo)跟蹤方法相比,在跟蹤精度和魯棒性方面均取得更為令人滿意的表現(xiàn)。
  (3)為了解決本文所提判別性跟蹤方法存在的單次迭代字典學(xué)習(xí)效果差的問題,同時提高其應(yīng)用普適性,結(jié)合在生成性和判別性跟蹤方法方面所取得的成果,本文提出了一種混合性在線跟蹤該方法:基于增量選擇性稀疏模型和殘差加權(quán)在線字典學(xué)習(xí)的在線跟蹤方法。該方法首先將選擇性稀疏模型、字典學(xué)習(xí)、分類模型訓(xùn)練與更新進(jìn)行整合,構(gòu)建了混合增量稀疏模型(Hybrid Incremental

10、Sparse Model,HISM),將目標(biāo)跟蹤處理流程切分為生成性建模和判別性建模兩部分。在生成性建模部分,采用基于稀疏表示的增量時空貢獻(xiàn)一致性排序(Sparsity-based Spatial-temporal Contribution Ranking, ISStCR)的方法,進(jìn)行關(guān)鍵塊的選取,用于代表目標(biāo)區(qū)域;構(gòu)建了基于幀間索引差的數(shù)值調(diào)整(Number Adjustment based on Inter-frame Indice

11、s Difference,NAIID)方法實現(xiàn)關(guān)鍵塊數(shù)量的自適應(yīng)調(diào)整。在判別性建模部分,采用了基于關(guān)鍵塊的字典學(xué)習(xí)和線性分類器(組)相結(jié)合的方法對候選樣本進(jìn)行判定,構(gòu)建了殘差加權(quán)在線字典學(xué)習(xí)(Residue-weighted Online Dictionary Learning,RODL)與殘差加權(quán)增量判別性結(jié)構(gòu)化字典學(xué)習(xí)(Residue-weighted Incremental Discriminative Structured Di

12、ctionary Learning,RIDSDL)算法,并給出了兩種字典更新方式及其證明。與經(jīng)典的(在線)字典學(xué)習(xí)和判別性字典學(xué)習(xí)方法的實驗結(jié)果進(jìn)行對比標(biāo)明,新提出的加權(quán)在線字典學(xué)習(xí)方法,在迭代次數(shù)保持不變的情況下,進(jìn)一步提高訓(xùn)練信號的信噪比,對人臉分類效果良好。該跟蹤方法在基準(zhǔn)集合進(jìn)行了測評實驗,與前兩章跟蹤結(jié)果相比,全部序列實現(xiàn)了相對較為穩(wěn)定和魯棒的跟蹤,13段序列平均中心誤差在10像素以下,平均覆蓋率綜合達(dá)到了71.6%,其中1段

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論