精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    奇富科技語(yǔ)音情感計(jì)算論文入選國(guó)際AI學(xué)術(shù)頂級(jí)會(huì)議ICASSP 2024

    12月27日消息,2024年IEEE聲學(xué)、語(yǔ)音與信號(hào)處理國(guó)際會(huì)議ICASSP 2024(2024 IEEE International Conference on Acoustics, Speech, and Signal Processing)宣布錄用奇富科技關(guān)于語(yǔ)音情感計(jì)算的最新研究成果論文“MS-SENet: Enhancing Speech Emotion Recognition Through Multi-scale Feature Fusion With Squeeze-and-excitation Blocks”。

    奇富科技介紹,此次被錄用的論文研究方向聚焦在語(yǔ)音情感計(jì)算,團(tuán)隊(duì)提出了一種名為MS-SENet的新型網(wǎng)絡(luò)結(jié)構(gòu),通過(guò)高效提取、選擇和加權(quán)空間和時(shí)間多尺度特征,并將這些特征與原始信息相融合,獲得更強(qiáng)的語(yǔ)音情緒表征向量。

    情感計(jì)算領(lǐng)域是一個(gè)涉及計(jì)算機(jī)科學(xué)、心理學(xué)和語(yǔ)言學(xué)等多學(xué)科的交叉研究領(lǐng)域,它的主要目的是通過(guò)分析和處理語(yǔ)音信號(hào)中的情感信息,使計(jì)算機(jī)能夠識(shí)別和理解人類(lèi)的情感狀態(tài)。業(yè)界主流做法是通過(guò)音頻、文本等多模態(tài)信息來(lái)進(jìn)行情感分類(lèi),但奇富科技團(tuán)隊(duì)認(rèn)為人類(lèi)底層情感特征是相通的,是完全可以跨越具體語(yǔ)種和文本內(nèi)容。

    奇富科技自研MS-SENet音頻情感計(jì)算網(wǎng)絡(luò)框架

    奇富科技團(tuán)隊(duì)認(rèn)為可以從減少提取大量無(wú)關(guān)緊要的聲學(xué)特征和針對(duì)局部頻率和長(zhǎng)期時(shí)間特征進(jìn)行融合兩方面去提升語(yǔ)音信號(hào)的情感表征學(xué)習(xí),并基于此提出了MS-SENet框架。MS-SENet通過(guò)使用不同尺寸的卷積核提取多尺度時(shí)空特征,并引入壓勵(lì)模塊來(lái)有效捕捉這些多尺度特征。同時(shí)通過(guò)跳躍連接和空間丟失層防止過(guò)擬合并增加模型深度,進(jìn)一步提高了情感計(jì)算模型的表達(dá)能力。

    另外,奇富科技團(tuán)隊(duì)在論文中評(píng)估了包括中科院自動(dòng)化所語(yǔ)音情感數(shù)據(jù)集、柏林情感數(shù)據(jù)庫(kù)、意大利語(yǔ)數(shù)據(jù)集、互動(dòng)情感二元運(yùn)動(dòng)捕捉數(shù)據(jù)庫(kù)、Surrey音頻視覺(jué)表達(dá)情感數(shù)據(jù)集以及Ryerson音頻視覺(jué)情感演講與歌曲數(shù)據(jù)集在內(nèi)的六個(gè)不同場(chǎng)景的多語(yǔ)種的數(shù)據(jù)集。和SOTA(state of the art,是指在特定任務(wù)中目前表現(xiàn)最優(yōu)的方法或模型)相比,MS-SENet將UA和WA提高了1.31%和1.61%,同時(shí)MS-SENet在具有更多情感類(lèi)別和較低數(shù)據(jù)量的情況下,仍然保持著出色的情感識(shí)別能力。

    據(jù)介紹,奇富科技的語(yǔ)音情感計(jì)算研究不止于理論突破,更是有成功的實(shí)際應(yīng)用。例如,在貸后降投訴項(xiàng)目中,異常情緒監(jiān)測(cè)首次被應(yīng)用在實(shí)景業(yè)務(wù)當(dāng)中。通過(guò)對(duì)高風(fēng)險(xiǎn)客群的錄音通話進(jìn)行逐通分析,及時(shí)遴選出異常情緒的客戶(hù),以便相關(guān)人員可以及時(shí)介入,實(shí)驗(yàn)結(jié)果表明模型組投訴率低于對(duì)照組4個(gè)絕對(duì)值百分點(diǎn)。

    免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

    2023-12-27
    奇富科技語(yǔ)音情感計(jì)算論文入選國(guó)際AI學(xué)術(shù)頂級(jí)會(huì)議ICASSP 2024
    12月27日消息,2024年IEEE聲學(xué)、語(yǔ)音與信號(hào)處理國(guó)際會(huì)議ICASSP 2024宣布錄用奇富科技關(guān)于語(yǔ)音情感計(jì)算的最新研究成果論文。

    長(zhǎng)按掃碼 閱讀全文