版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、隨著互聯(lián)網(wǎng)2.0技術(shù)的快速發(fā)展,一系列圍繞著多媒體內(nèi)容的研究不停地涌現(xiàn)出來。身處于這樣一個多媒體的時代,人們也在日常生活中不停創(chuàng)造并分享傳播著圖像和視頻這些常見的多媒體素材。而在這一過程中,用戶并不局限于僅僅分享傳播圖像視頻這些單一視覺信息,很多時候還會加上他們對圖像視頻內(nèi)容在語義層面的理解,比如標(biāo)簽或者描述這些文本信息。這樣就為多媒體領(lǐng)域衍生出了很多跨模態(tài)間的應(yīng)用。具體而言,這其中不僅包含有從文本出發(fā)查詢相關(guān)圖像的多媒體檢索技術(shù),也包
2、含有從視頻素材直接到文本的視頻描述生成,更有一些大膽的跨模態(tài)應(yīng)用比如從文本出發(fā),自動生成相關(guān)的視頻內(nèi)容。這些跨模態(tài)應(yīng)用的本質(zhì)都是在視覺信息和文本信息這兩個不同模態(tài)間的互相轉(zhuǎn)換。目前的技術(shù)手段大部分都依賴于多模態(tài)學(xué)習(xí)與深度學(xué)習(xí)的現(xiàn)有框架來簡單實(shí)現(xiàn)不同模態(tài)間的轉(zhuǎn)換,卻忽視了不同模態(tài)間本質(zhì)存在的高層語義聯(lián)系。而在模態(tài)轉(zhuǎn)換的過程中強(qiáng)調(diào)這一高層語義信息對深度理解視覺內(nèi)容以及最終提高模態(tài)間轉(zhuǎn)換質(zhì)量而言都是至關(guān)重要的。
針對這一問題,本論文
3、從視覺信息和文本信息間本質(zhì)存在的高層語義信息出發(fā),研究如何利用高層語義信息來幫助并提升多媒體檢索(文本到圖像)、視頻描述生成(視頻到文本)、視頻內(nèi)容生成(文本到視頻)這些跨模態(tài)的應(yīng)用。本論文包含以下幾個創(chuàng)新點(diǎn):
(1)論文提出一種基于高層語義的多媒體檢索算法,可利用搜索引擎中用戶點(diǎn)擊數(shù)據(jù)挖掘出查詢關(guān)鍵詞和圖像的高層語義關(guān)系,并以此構(gòu)建出一個語義子空間來直接度量這兩種不同模態(tài)間的語義相關(guān)性,實(shí)現(xiàn)查詢關(guān)鍵詞到圖像轉(zhuǎn)換的多媒體檢索。
4、在該方法中語義子空間的構(gòu)建主要遵循兩個原則,即最小化查詢關(guān)鍵詞與對應(yīng)的點(diǎn)擊過的圖像在語義子空間中的距離,并同時保留每個模態(tài)在自己原本空間的固有關(guān)系結(jié)構(gòu)來。通過在一個大規(guī)模的用戶點(diǎn)擊圖像檢索數(shù)據(jù)集上的實(shí)驗(yàn),本文證明了該算法相比于傳統(tǒng)支持向量機(jī)的排序模型在語義相關(guān)性的評測標(biāo)準(zhǔn)上提高了4.0%。
(2)論文提出一種基于隱式高層語義的視頻描述生成算法,自動生成語法連貫而且語義和視頻內(nèi)容一致的描述語句。該方法在利用長短時記憶神經(jīng)網(wǎng)絡(luò)對詞
5、和詞之間的語法連貫性建模的同時,還設(shè)計了一個全新的視覺語義嵌入式模塊來約束整個語句和視頻內(nèi)容的隱式語義相關(guān)性。這其中長短時記憶神經(jīng)網(wǎng)絡(luò)與視覺語義嵌入式模塊是共同訓(xùn)練與優(yōu)化的。本文在三個視頻描述生成數(shù)據(jù)集上進(jìn)行了大量實(shí)驗(yàn)并證明了所提出方法的有效性,其中所提出方法在YouTube2Text數(shù)據(jù)集上相比于基于長短時記憶神經(jīng)網(wǎng)絡(luò)的方法在METEOR指標(biāo)上提高了4.7%。
(3)除了利用視頻和描述語句間隱含的語義相關(guān)性,論文還提出一種基
6、于顯式高層語義的視頻描述生成算法,進(jìn)一步提高從視頻內(nèi)容到描述語句的轉(zhuǎn)換質(zhì)量。該方法首先挖掘出視頻中包含的顯式高層語義信息(也就是語義屬性),然后將這一高層語義信息動態(tài)地融入到基于循環(huán)神經(jīng)網(wǎng)絡(luò)的傳統(tǒng)視頻描述生成模型中,從而大大提高了生成的視頻描述語句與視頻內(nèi)容的語義相關(guān)性。同樣地,本論文在三個視頻描述生成數(shù)據(jù)集上驗(yàn)證了基于顯式高層語義的視頻描述生成模型的有效性。其中在MSVD數(shù)據(jù)集上,該方法取得了迄今為止公開的最高性能:52.8%的BLE
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于語義關(guān)聯(lián)學(xué)習(xí)的跨模態(tài)檢索方法研究.pdf
- 視覺與聽覺跨模態(tài)轉(zhuǎn)換的認(rèn)知和應(yīng)用研究.pdf
- 基于Ontology的語義檢索應(yīng)用研究.pdf
- 基于語義一致性和矩陣分解的跨模態(tài)哈希檢索研究.pdf
- 潛在語義分析在跨語言信息檢索中的應(yīng)用研究.pdf
- 基于環(huán)境激勵高墩大跨連續(xù)剛構(gòu)橋模態(tài)分析及應(yīng)用研究.pdf
- 基于語義Web的信息檢索應(yīng)用研究.pdf
- 基于語義的Web服務(wù)發(fā)現(xiàn)應(yīng)用研究.pdf
- 語義Web環(huán)境下基于本體的語義檢索應(yīng)用研究.pdf
- 基于跨模態(tài)哈希的圖文檢索研究.pdf
- 基于語義的web服務(wù)發(fā)現(xiàn)應(yīng)用研究
- 基于語義的報表系統(tǒng)模型的應(yīng)用研究.pdf
- 基于高層語義的圖像檢索研究.pdf
- 基于RDF、Ontology技術(shù)的語義Web應(yīng)用研究.pdf
- 基于主題分類的多模態(tài)信息融合應(yīng)用研究.pdf
- 基于語義距離的跨語言信息檢索研究.pdf
- 語義提升和矩陣分解在跨模哈希檢索中的應(yīng)用研究.pdf
- 基于語義Web的知識表示及應(yīng)用研究.pdf
- 語義網(wǎng)格Portal的應(yīng)用研究.pdf
- 基于本體的教學(xué)資源語義檢索應(yīng)用研究.pdf
評論
0/150
提交評論