版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
1、隨著互聯(lián)網(wǎng)應(yīng)用的普及發(fā)展,網(wǎng)絡(luò)上的圖像信息正以指數(shù)級的速率增長。因此對海量圖像進行有效的管理和檢索有著非常重要的現(xiàn)實意義。這些互聯(lián)網(wǎng)圖像一般都有一些描述其語境的伴隨文本,因此從圖像伴隨文本中選擇合適的名詞-動詞去描述圖像中的人物和動作成為當(dāng)前熱點研究問題。
現(xiàn)有方法通常用圖像中人物的外觀特征學(xué)習(xí)得到表示人物和名詞或者動作和動詞之間概率的生成模型,然后使用這一得到的生成模型對訓(xùn)練集以外圖像中人物運動進行識別。但是,這些方法都
2、是單獨的關(guān)注于對象或者動作的標注,沒有考慮對象和動作之間存在的聯(lián)系。本文提出了基于對象-動作聯(lián)合建模的方法,用人臉提取的九個不同位置SIFT特征作為人物外觀特征,用基于pictorial structure的人體部位概率分布作為動作的姿勢特征,聯(lián)合建立識別模型,實驗表明通過聯(lián)合建模的方法相比單獨建??梢杂行岣邷蚀_率。
同時,在動作的識別上,當(dāng)前的方法忽略了圖像中高維特征之間固有存在的組效應(yīng),即同構(gòu)特征之間存在較強關(guān)聯(lián)性而
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于搜索的圖像標注技術(shù)研究.pdf
- 基于平臺的SoC多級混合建模技術(shù)研究.pdf
- Web服務(wù)組合建模和驗證技術(shù)研究.pdf
- 基于圖像先驗建模的圖像復(fù)原技術(shù)研究.pdf
- 基于VSM模型和ILDA模型聯(lián)合建模的新聞話題發(fā)現(xiàn).pdf
- 基于圖像的建模與測量技術(shù)研究.pdf
- 基于圖像建模的虛擬漫游技術(shù)研究.pdf
- 圖像的語義化標注和檢索關(guān)鍵技術(shù)研究.pdf
- 圖像的語義化標注和檢索關(guān)鍵技術(shù)研究
- 基于圖像建模與繪制技術(shù)研究.pdf
- 基于內(nèi)容的圖像自動標注若干關(guān)鍵技術(shù)研究.pdf
- 虛擬建筑的混合建模技術(shù)研究.pdf
- 基于概率建模圖像標注算法的研究及實現(xiàn).pdf
- 基于UML的面向?qū)ο笙到y(tǒng)建模技術(shù)研究.pdf
- 設(shè)備維護和備件庫存的聯(lián)合建模與決策研究.pdf
- 面向?qū)ο蟮碾x散事件建模和分析技術(shù)研究.pdf
- 基于人臉對象的圖像檢索關(guān)鍵技術(shù)研究.pdf
- 基于圖像的建模與繪制技術(shù)研究.pdf
- 基于互聯(lián)網(wǎng)數(shù)據(jù)集的圖像標注技術(shù)研究.pdf
- 基于圖像的人臉建模技術(shù)研究.pdf
評論
0/150
提交評論