基于GA-ACO算法和BP神經(jīng)網(wǎng)絡(luò)的語音識別研究.pdf_第1頁
已閱讀1頁,還剩50頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、語音作為人與人之間彼此交流最為重要的一種工具,在人工智能的組成中起到了極為重要的作用。隨著計算機技術(shù)和通信技術(shù)的快速進步與發(fā)展,使它在各個行業(yè)中有著很好的前景,所以備受人們的重視,歷來它都是根據(jù)線性理論來研究的,我們經(jīng)常使用的方法就是動態(tài)時間規(guī)整技術(shù)(DTW)和隱馬爾可夫模型(HMM)。當(dāng)然,語音識別過程并不是一個簡單的線性過程,其非線性使得利用線性理論來識別的方法的缺陷慢慢都展現(xiàn)出來了。近年來,人們對神經(jīng)網(wǎng)絡(luò)的研究越來越多,對其非線性

2、理論更加了解了,把其用于語音識別中,能夠得到更好的效果,因此,它也成為了如今研究的焦點。
  本文通過分析語音識別中的預(yù)處理、特征提取以及模式訓(xùn)練及匹配流程,發(fā)現(xiàn)最常用的方法有:預(yù)處理包括濾波采樣、預(yù)加重、分幀加窗和端點檢測。特征提取中闡述了線性預(yù)測系數(shù)(LPC)、線性預(yù)測倒譜系數(shù)(LPCC)和MEL頻率倒譜系數(shù)(MFCC)三種基本方法。模式訓(xùn)練及匹配中闡述了動態(tài)時間規(guī)整算法(DTW)、隱馬爾科夫模型(HMM)和神經(jīng)網(wǎng)絡(luò)模型(AN

3、N)。本文主要就前饋神經(jīng)網(wǎng)絡(luò)(BP神經(jīng)網(wǎng)絡(luò))的原理及其在語音識別的應(yīng)用上進行了深入研究,針對該方法的不足之處,提出了將 GA-ACO融合算法與其相結(jié)合,優(yōu)化后的BP神經(jīng)網(wǎng)絡(luò)克服了傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)收斂速度慢,存在局部極小值,動態(tài)性能不夠理想,學(xué)習(xí)精度受一定的限制的不足,提出了一種新的方法來實現(xiàn)語音識別,而且在文中用此方法進行了MATLAB仿真實驗,驗證了其可行性。
  對于非指定人、單獨數(shù)字的辨認,本文按照語音識別的基本方法,考慮到

4、BP神經(jīng)網(wǎng)絡(luò)的缺點,用GA-ACO融合算法對其訓(xùn)練,形成了新的語音識別方法,并仿真了用新方法和傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)方法進行語音識別的不同結(jié)果,而且討論了不同特征參數(shù)、訓(xùn)練集、隱含層神經(jīng)元個數(shù)對辨認精度的影響。
  研究結(jié)果表明,本文提出的基于 GA-ACO融合算法的神經(jīng)網(wǎng)絡(luò)識別方法顯示出其快速學(xué)習(xí)網(wǎng)絡(luò)權(quán)值的能力,能夠消除傳統(tǒng)BP算法容易陷入局部極值和如何選取算法初始權(quán)重值來快速達到設(shè)定精度的困擾,從各個方面都能夠比傳統(tǒng)BP算法效果更好

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論