版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、視頻對(duì)象分割是視頻處理和計(jì)算機(jī)視覺(jué)中的一個(gè)難點(diǎn),其挑戰(zhàn)主要來(lái)自兩方面:一方面是現(xiàn)實(shí)世界中場(chǎng)景的極度復(fù)雜性和多樣性,很難為它們建立一個(gè)統(tǒng)一的先驗(yàn)?zāi)P?另一方面是視頻對(duì)象的定義和描述,視頻對(duì)象是高層次語(yǔ)義對(duì)象,要通過(guò)低層次視覺(jué)分割來(lái)得到這些視頻對(duì)象非常困難,而目前的圖像分析技術(shù)又還遠(yuǎn)不足以將高層次語(yǔ)義對(duì)象用機(jī)器語(yǔ)言來(lái)準(zhǔn)確的定義和描述.因此從可行性角度出發(fā),目前的視頻對(duì)象分割大都集中在運(yùn)動(dòng)目標(biāo)的分割上,該文也是如此.視頻對(duì)象分割的方法很多,近
2、兩年時(shí)空聯(lián)合分割框架由于其較好的分割準(zhǔn)確性而越來(lái)越受到研究者的認(rèn)同.在這種框架下,通過(guò)空域分割把每個(gè)視頻幀分割為一些灰度或紋理一致區(qū)域;通過(guò)時(shí)域分割檢測(cè)出每一幀中不同的目標(biāo)區(qū)域;然后通過(guò)時(shí)空聯(lián)合分析將空域和時(shí)域的分割結(jié)果進(jìn)行融合,以獲得較為準(zhǔn)確的目標(biāo)對(duì)象區(qū)域.該文主要內(nèi)容就是對(duì)時(shí)空聯(lián)合分割框架下視頻對(duì)象分割技術(shù)的一些關(guān)鍵問(wèn)題進(jìn)行研究.論文主要工作和創(chuàng)新點(diǎn)包括:1)提出了一種特征域和空間域交叉聚類的灰度一致區(qū)域分割方法.這種方法由于同時(shí)考
3、慮圖像的特征域統(tǒng)計(jì)信息以及象素的空間聚類信息,因此具有很好的抗噪聲能力,不易過(guò)分割;針對(duì)一致區(qū)域分割中的弱邊界分割問(wèn)題,該文提出了基于J值的弱邊界檢測(cè)方法,這種方法在特征域和空間域交叉聚類方法的基礎(chǔ)上通過(guò)J值度量來(lái)檢測(cè)弱邊界.該文還研究了基于J值圖的紋理一致區(qū)域分割方法,該方法能夠獲得較準(zhǔn)確的紋理區(qū)域邊界.2)提出了一種分級(jí)篩選方法進(jìn)行快速的塊運(yùn)動(dòng)估計(jì).該方法將塊匹配方法中搜索最佳匹配塊的過(guò)程分為若干個(gè)篩選過(guò)程,每個(gè)篩選過(guò)程用不同大小級(jí)
4、別的子塊作為基元進(jìn)行匹配:初始級(jí)別中用很少的運(yùn)算代價(jià)通過(guò)簡(jiǎn)單的特征匹配先淘汰一部分候選匹配塊;然后在上一級(jí)篩選出的候選塊中,逐級(jí)用更加細(xì)致的特征繼續(xù)篩選;直至找到最佳匹配塊.分級(jí)篩選法不僅在速度上比一些常見(jiàn)的快速運(yùn)動(dòng)估計(jì)方法要快,而且估計(jì)精度與全搜索法非常接近.3)提出了一種新的基于運(yùn)動(dòng)矢量場(chǎng)的全局運(yùn)動(dòng)估計(jì)方法——閾值可變雙迭代法.該方法基于這樣的假設(shè)前提:背景區(qū)域在整個(gè)場(chǎng)景中占主要成份(即全局運(yùn)動(dòng)區(qū)域大于局部運(yùn)動(dòng)區(qū)域).閾值可變雙迭代
5、法在閾值選取上做了一些改進(jìn),從而能夠更好地排除局部運(yùn)動(dòng)區(qū)域?qū)θ诌\(yùn)動(dòng)估計(jì)的干擾,并獲得準(zhǔn)確的全局運(yùn)動(dòng)模型參數(shù).基于這種全局運(yùn)動(dòng)估計(jì)方法,提出了一種視頻對(duì)象分割方法.4)提出了一種基于Gibbs隨機(jī)場(chǎng)模型的時(shí)空聯(lián)合分析方法,該方法通過(guò)定義適當(dāng)?shù)腉ibbs勢(shì)能函數(shù),讓空域分割結(jié)果對(duì)時(shí)域分割結(jié)果進(jìn)行約束.針對(duì)這種方法對(duì)參數(shù)比較敏感的問(wèn)題,該文又提出了一種局部一致區(qū)域統(tǒng)計(jì)法,該方法實(shí)現(xiàn)非常簡(jiǎn)單,而且能夠取得很好的效果.為了使分割結(jié)果的視覺(jué)效果更
6、理想,該文提出了一種目標(biāo)區(qū)域邊界修正方法——局部相似區(qū)域統(tǒng)計(jì)法,該方法與局部一致區(qū)域統(tǒng)計(jì)法有較為類似的思路.5)提出了一種結(jié)合一定語(yǔ)義信息的半自動(dòng)視頻對(duì)象分割方法.該方法通過(guò)人機(jī)交互提供的語(yǔ)義信息來(lái)提高分割方法的效率和適用能力;在初始幀分割時(shí),通過(guò)引入一致區(qū)域分割,可以只用一個(gè)頂點(diǎn)很少的多邊形來(lái)初始化目標(biāo)區(qū)域,以減少人機(jī)交互工作量;對(duì)于一般性的目標(biāo),采用基于象素的后向目標(biāo)區(qū)域跟蹤方法,避免了復(fù)雜的運(yùn)動(dòng)模型,而針對(duì)平移運(yùn)動(dòng)的剛體則采用二參
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 時(shí)空聯(lián)合的視頻對(duì)象分割.pdf
- 基于時(shí)空聯(lián)合的視頻對(duì)象分割算法研究.pdf
- 時(shí)空聯(lián)合視頻對(duì)象分割算法研究.pdf
- 基于時(shí)空聯(lián)合的視頻對(duì)象分割算法的研究.pdf
- 時(shí)空聯(lián)合的視頻運(yùn)動(dòng)目標(biāo)分割技術(shù)研究.pdf
- 基于時(shí)空信息融合的Snake視頻對(duì)象分割技術(shù)研究.pdf
- 基于時(shí)空聯(lián)合的視頻分割.pdf
- 基于對(duì)象的視頻分割技術(shù)研究.pdf
- 視頻人體對(duì)象分割技術(shù)研究.pdf
- 基于時(shí)空融合的運(yùn)動(dòng)對(duì)象視頻分割.pdf
- 基于內(nèi)容的視頻運(yùn)動(dòng)對(duì)象分割技術(shù)研究.pdf
- 基于圖理論的視頻對(duì)象分割技術(shù)研究.pdf
- 基于時(shí)空信息的視頻對(duì)象分割算法研究.pdf
- 視頻對(duì)象分割技術(shù)的研究.pdf
- 視頻監(jiān)控中的運(yùn)動(dòng)對(duì)象分割技術(shù)研究.pdf
- 面向?qū)ο笊傻囊曨l分割技術(shù)研究.pdf
- 基于細(xì)胞神經(jīng)網(wǎng)絡(luò)視頻對(duì)象分割的相關(guān)技術(shù)研究.pdf
- 視頻對(duì)象分割技術(shù)及應(yīng)用.pdf
- 基于灰度相關(guān)和NS時(shí)空融合的視頻分割技術(shù)研究.pdf
- 基于活動(dòng)輪廓模型的視頻運(yùn)動(dòng)對(duì)象分割技術(shù)研究.pdf
評(píng)論
0/150
提交評(píng)論