7月10日消息,奇富科技智能語音團隊論文《Qifusion-Net:基于特征融合的流式/非流式端到端語音識別框架》(Qifusion-Net: Layer-adapted Stream/Non-stream Model for End-to-End Multi-Accent Speech Recognition)被全球語音與聲學(xué)頂級會議INTERSPEECH 2024收錄。
這是繼去年奇富科技團隊《Eden-TTS:一種簡單高效的非自回歸“端到端可微分”神經(jīng)網(wǎng)絡(luò)的語音合成架構(gòu)》論文之后的又一篇論文被該國際頂會認可。
資料顯示,INTERSPEECH由國際語音通訊協(xié)會(International Speech Communication Association, ISCA)創(chuàng)辦,是語音處理領(lǐng)域的頂級旗艦國際會議。作為全球最大的綜合性語音處理領(lǐng)域的科技盛會,歷屆INTERSPEECH會議都備受全球各地語音語言領(lǐng)域人士的廣泛關(guān)注。
此次被收錄的奇富科技智能語音團隊論文中Qifusion框架模型具有以下特點:
1.方言種類更豐富:
憑借自身在貸后場景及方言領(lǐng)域的豐富數(shù)據(jù)樣本,Qifusion框架模型在原有東北官話、膠遼官話、北京官話、冀魯官話、中原官話、江淮官話、蘭銀官話和西南官話等國內(nèi)八種主流方言的基礎(chǔ)上,精準強化了四川、重慶、山東、河南、貴州、廣東、吉林、遼寧、黑龍江等用戶密集地區(qū)的方言識別能力。這使得平均識別準確率相對提升了25%,尤其在川渝地區(qū),方言識別準確率相對提升超35%。
2.方言識別更精準:
Qifusion框架模型具備自動識別不同口音的能力,并能在時間維度上對解碼結(jié)果進行口音信息修正,使方言口音的語音識別誤差率降低了30%以上,整體語音識別字錯率降低了16%以上,顯著提升了用戶體驗。此外,在業(yè)內(nèi)知名的Kespeech 開源方言數(shù)據(jù)集性能對比測試中,Qifusion字錯率刷新模型最低值,達到國內(nèi)頂尖水平。
3.方言識別更高效:
Qifusion框架采用了創(chuàng)新的層自適應(yīng)融合結(jié)構(gòu),能通過共享信息編碼模塊,更高效的提取方言信息。同時,該框架模型還支持即說即譯功能,能在無需知曉額外方言信息的前提下,對不同方言口音的音頻進行實時解碼,實現(xiàn)精準的識別和轉(zhuǎn)譯。這使得Qifusion框架在業(yè)務(wù)場景中能夠迅速準確地捕捉并響應(yīng)用戶需求。
據(jù)悉,奇富科技智能語音團隊將受邀參與9月INTERSPEECH 2024科技盛會并發(fā)表主題報告,進一步分享其在語音識別領(lǐng)域的創(chuàng)新成果,與全球同行共探語音科技的未來。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )