結(jié)合D-S證據(jù)理論與多SVMs的圖像標注和檢索.pdf_第1頁
已閱讀1頁,還剩75頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

1、基于內(nèi)容的圖像檢索就是指在用戶給定查詢圖像的條件下,根據(jù)圖像的內(nèi)容從大規(guī)模的圖像庫中搜索出與查詢圖像一致或相似的圖像,但是圖像低層視覺特征和高層語義之間的“語義鴻溝”是圖像檢索的一個關鍵問題,為了提高圖像檢索系統(tǒng)的性能,本文提出了一種結(jié)合D-S證據(jù)理論與多個支持向量機的新算法來增強圖像標注和檢索系統(tǒng)的性能。在圖像標注和檢索系統(tǒng)中,將基于全局的SVM和Co-SVM結(jié)合在一起,其中基于全局的SVM是在全局顏色和紋理特征上訓練得到的,通過證據(jù)

2、理論對SVM的輸出進行修正,從而得到較好的分類結(jié)果;Co-SVM是根據(jù)不同低層視覺特征的統(tǒng)計特性,使用不同的核函數(shù),分別在顏色和紋理特征空間上學習得到的,使用D-S證據(jù)理論對它們的分類結(jié)果進行融合得到最后的分類結(jié)果;最后采用D-S規(guī)則將多個SVM修正后的結(jié)果進行融合,根據(jù)融合的結(jié)果,可以得到未標記樣本的確信度。同時我們也提出了一個新的主動反饋算法,將整個檢索結(jié)果看成是候選標記集,用戶可以根據(jù)自己的查詢需要選擇包含信息量較大的圖像來標記,

3、利用較多的正樣本來減少標記的耗費,提高分類器的精度,從而也減少了反饋的次數(shù),使得檢索結(jié)果盡快達到終端用戶需求的目的。
   給定一個輸入圖像,圖像標注的目標是給圖像指派一些可以反映圖像視覺內(nèi)容的關鍵字。我們利用當前比較成熟的圖像檢索技術(shù),將圖像標注看成是一個檢索的問題。為了更好地獲得圖像的高層語義,我們借助于用戶對圖像的理解,采用兩層反饋框架,第一層是使用D-S證據(jù)理論來修正和融合多類SVMs的概率輸出,檢索出與待標注圖像相似的

4、圖像集,在檢索與待標注圖像相似的圖像集時,為了提高圖像檢索的效率和精度,用戶可以根據(jù)自己對圖像視覺對象的理解,對檢索的結(jié)果進行交互反饋;第二層反饋是利用圖像檢索所得到的相似圖像集來獲取圖像的視覺信息,將經(jīng)過證據(jù)理論修正過的確信度作為衡量視覺信息的權(quán)重,采用一定的、高效率的標記轉(zhuǎn)移策略,將相似圖像集中的部分關鍵字進行轉(zhuǎn)移,從而得到待標注圖像的標注關鍵字,此時用戶可以根據(jù)自己對圖像高層語義的理解來對關鍵字進行反饋,從而不斷地修正圖像的標注關

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論