【CNMO新聞】近期,語音識別技術發(fā)展迅猛,像EdgeSpeechNet等最先進的模型能夠達到97%的準確率,但即使是最好的系統(tǒng)偶爾也會被生僻字難倒。
為了解決這個問題,谷歌和加利福尼亞大學的科學家提出了一種方法,可以利用純文本數(shù)據(jù)訓練拼寫校正模型。在預印本服務器Arxiv.org上發(fā)表的一篇論文《用于端到端語音識別的拼寫校正模型》中,他們表示,在使用800字、960小時語言建模LibriSpeech數(shù)據(jù)集的實驗中,他們的技術顯示,相對于基準,單詞錯誤率(WER)改善了18.6%。在某些情況下,它甚至可以減少29%的錯誤。
他們寫道:“目標是將一個接受了文本數(shù)據(jù)培訓的模塊納入端到端框架,糾正系統(tǒng)所犯的錯誤,具體來說,我們的調查使用了不成對的數(shù)據(jù),利用文本到語音(TTS)系統(tǒng)生成音頻信號,這個過程類似于機器翻譯中的反向翻譯?!?/p>
正如論文作者所解釋的那樣,大多數(shù)自動語音識別(ASR)系統(tǒng)要訓練三個組成部分:一個學習音頻信號與構成語音的語言單位之間關系的聲學模型,一個為單詞序列分配概率的語言模型,以及一種用于對聲學幀和識別的符號進行匹配的機制。所有這三者都使用一個神經(jīng)網(wǎng)絡和轉錄的音頻-文本對,因此,當語言模型遇到語料庫中不經(jīng)常出現(xiàn)的單詞時,通常會出現(xiàn)性能下降。
然后,研究人員開始將上述拼寫校正模型納入ASR框架,一種將輸入和輸出句子解碼為“詞組”的子詞單元的模型,他們使用純文本數(shù)據(jù),并利用文本到語音(TTS)系統(tǒng)生成的音頻信號來訓練LAS語音識別器,這是2017年Google Brain研究人員首次描述的端到端模型,然后創(chuàng)建一組TTS對,最后,由他們來“教導”拼寫糾正器糾正識別器的錯誤。
為了驗證這個模型,研究人員訓練了一個語言模型,生成一個TTS數(shù)據(jù)集來訓練LAS模型,并產生了錯誤假設以訓練拼寫校正模型,其中包含了來自LibriSpeech數(shù)據(jù)集的4000萬個文本序列。他們發(fā)現(xiàn),通過糾正來自LAS的條目,語音校正模型生成的擴展輸出的錯誤率“顯著”降低了。






