版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著互聯(lián)網(wǎng)和4G網(wǎng)絡(luò)技術(shù)的發(fā)展和普及,以及Facebook、Instagram和Snapchat等主流社交網(wǎng)絡(luò)對(duì)視頻業(yè)務(wù)的重視與推廣,網(wǎng)絡(luò)視頻業(yè)務(wù)呈蓬勃發(fā)展趨勢(shì)。然而,不斷增長(zhǎng)的視頻數(shù)量和用戶群體,以及豐富多樣的視頻內(nèi)容,卻給視頻內(nèi)容的監(jiān)督和管理提出了巨大的挑戰(zhàn)。得益于深度學(xué)習(xí)在智能識(shí)別方面取得的突破性進(jìn)展,基于深度學(xué)習(xí)的視頻內(nèi)容識(shí)別技術(shù)逐漸成為視頻內(nèi)容識(shí)別和分析的主要技術(shù),因此,本文以深度學(xué)習(xí)為基礎(chǔ),通過引入注意力機(jī)制,充分利用視頻的
2、時(shí)間特性,研究準(zhǔn)確高效的視頻內(nèi)容識(shí)別技術(shù)。
視頻內(nèi)容識(shí)別技術(shù)的關(guān)鍵在于視頻特征的提取,而深度學(xué)習(xí)的優(yōu)勢(shì)在于其強(qiáng)大的特征提取能力,為了進(jìn)一步研究基于深度學(xué)習(xí)的視頻內(nèi)容識(shí)別技術(shù),論文的主要工作如下:
首先,結(jié)合人類視覺感知方面的研究,以及LRCN模型在視頻內(nèi)容識(shí)別的優(yōu)勢(shì),提出基于注意力機(jī)制的LRCN模型,在深度學(xué)習(xí)模型中模擬人腦的注意力特性,從全局考慮視頻內(nèi)容,使模型的注意力落在整個(gè)視頻的有效區(qū)域,降低無關(guān)信息對(duì)視頻內(nèi)容
3、識(shí)別的干擾?;谧⒁饬C(jī)制的LRCN模型通過選擇性的注意力權(quán)重,為與視頻主題相關(guān)的區(qū)域分配較大的權(quán)重,無關(guān)的區(qū)域分配較小的權(quán)重,提取具有區(qū)分性的時(shí)間特征。
然后,為充分利用視頻的時(shí)間特性,采用BLSTM網(wǎng)絡(luò)捕捉視頻內(nèi)容的上下文信息,提取更豐富的時(shí)間特征,提出基于BLSTM網(wǎng)絡(luò)的LRCN模型?;贐LSTM網(wǎng)絡(luò)的LRCN模型通過提取正向和反向的時(shí)間特征,充分利用視頻的時(shí)間信息識(shí)別視頻內(nèi)容。
最后,采用Tensorflo
4、w深度學(xué)習(xí)開源框架對(duì)基于注意力機(jī)制的LRCN模型和基于BLSTM網(wǎng)絡(luò)的LRCN模型進(jìn)行了仿真驗(yàn)證,實(shí)驗(yàn)數(shù)據(jù)采用HMDB-51和UCF-101視頻內(nèi)容識(shí)別數(shù)據(jù)集。實(shí)驗(yàn)表明,本文提出的基于注意力機(jī)制的LRCN模型和基于BLSTM網(wǎng)絡(luò)的LRCN模型可以有效提高視頻內(nèi)容識(shí)別的準(zhǔn)確率,并且基于BLSTM網(wǎng)絡(luò)的LRCN模型在訓(xùn)練時(shí)能夠快速收斂,提高模型訓(xùn)練效率,同時(shí),本文還對(duì)基于注意力機(jī)制的LRCN模型的注意力權(quán)重進(jìn)行了可視化,分析注意力權(quán)重對(duì)視頻
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度學(xué)習(xí)的視頻跟蹤技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的人臉識(shí)別技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的手寫漢字識(shí)別技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的說話人識(shí)別技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的行人再識(shí)別技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的視頻人臉識(shí)別方法.pdf
- 基于深度學(xué)習(xí)的年齡不變?nèi)四樧R(shí)別技術(shù)研究與實(shí)現(xiàn).pdf
- 基于深度學(xué)習(xí)的溯源視頻目標(biāo)檢測(cè)與識(shí)別.pdf
- 基于內(nèi)容的視頻分段技術(shù)研究.pdf
- 深度視頻估計(jì)技術(shù)研究.pdf
- 基于內(nèi)容的同源視頻檢索技術(shù)研究.pdf
- 基于內(nèi)容的視頻片段檢索技術(shù)研究.pdf
- 基于視頻內(nèi)容的全景拼接技術(shù)研究.pdf
- 基于內(nèi)容的視頻檢索若干技術(shù)研究.pdf
- 基于監(jiān)控視頻的車型識(shí)別技術(shù)研究.pdf
- 基于無線信號(hào)CSI和深度學(xué)習(xí)算法的活動(dòng)識(shí)別技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的問答系統(tǒng)技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的短信分類技術(shù)研究.pdf
- 基于分布式深度學(xué)習(xí)系統(tǒng)的視頻動(dòng)作識(shí)別.pdf
- 基于內(nèi)容的視頻拷貝檢測(cè)技術(shù)研究.pdf
評(píng)論
0/150
提交評(píng)論