精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    <ruby id="9gfbv"><legend id="9gfbv"></legend></ruby>

    OPPO小布助手5篇論文入選國(guó)際語(yǔ)音頂會(huì)Interspeech 2023

    近日,語(yǔ)音技術(shù)領(lǐng)域國(guó)際會(huì)議Interspeech公布了本屆論文審稿結(jié)果,OPPO小布智能中心智能交互部語(yǔ)音技術(shù)組有5篇論文被大會(huì)收錄。本次被接收的論文研究方向涵蓋語(yǔ)音識(shí)別、模型壓縮、目標(biāo)說(shuō)話人提取、語(yǔ)音鑒偽、異常聲音檢測(cè)等。

    Interspeech是國(guó)際語(yǔ)音通信協(xié)會(huì)(International Speech Communication Association, ISCA)舉辦的年度會(huì)議,也是全球最大、最全面的專(zhuān)注于語(yǔ)音通信領(lǐng)域的學(xué)術(shù)盛會(huì)。Interspeech會(huì)議已成為該領(lǐng)域中來(lái)自各行各業(yè)的專(zhuān)家、研究人員、學(xué)生等,共同探討、交流和分享前沿的語(yǔ)音技術(shù)、認(rèn)知和創(chuàng)新的聚集地。本屆Interspeech會(huì)議將于2023年8月20日至8月24日于愛(ài)爾蘭都柏林舉辦。

    論文題目:Multi-Channel Multi-Speaker Transformer for Speech Recognition

    論文作者:郭一凡,田垚,索宏彬,萬(wàn)玉龍

    論文單位:OPPO

    核心內(nèi)容:隨著線上會(huì)議和車(chē)載語(yǔ)音助手的發(fā)展,遠(yuǎn)場(chǎng)多說(shuō)話人語(yǔ)音識(shí)別已經(jīng)成為了一個(gè)熱門(mén)的研究課題。近日,研究人員提出了一種多通道Transformer結(jié)構(gòu)(Multi-Channel Transformer, MCT)。這一工作證明了Transformer結(jié)構(gòu)具有建模遠(yuǎn)場(chǎng)聲學(xué)環(huán)境的能力。然而,當(dāng)存在多個(gè)說(shuō)話人同時(shí)發(fā)聲時(shí),說(shuō)話人之間存在的相互干擾,會(huì)導(dǎo)致MCT無(wú)法直接從多人混合音頻中直接為每個(gè)說(shuō)話人編碼出對(duì)應(yīng)的高維聲學(xué)特征?;诖耍覀?cè)诒疚闹刑岢隽硕嗤ǖ蓝嗾f(shuō)話人Transformer語(yǔ)音識(shí)別結(jié)構(gòu)。在SMS-WSJ開(kāi)源數(shù)據(jù)集上的實(shí)驗(yàn)顯示,我們提出的結(jié)構(gòu)相較于基于神經(jīng)網(wǎng)絡(luò)波束形成器(Neural Beamformer),MCT,具有轉(zhuǎn)換平均連接的雙路徑RNN(Dual-Path RNN with

    Transform-Average-Concatenate)以及多通道深度聚類(lèi)(Multi-Channel Deep Clustering)的方法,識(shí)別詞錯(cuò)率分別下降了相對(duì)9.2%, 14.3%, 24.9%和52.2%。

    論文題目:Task-Agnostic Structured Pruning of Speech Representation Models

    論文作者:王皓宇,王思遠(yuǎn),張衛(wèi)強(qiáng),萬(wàn)玉龍

    論文單位:清華大學(xué),OPPO

    核心內(nèi)容:近年來(lái),基于無(wú)監(jiān)督預(yù)訓(xùn)練技術(shù)的語(yǔ)音表征模型為許多語(yǔ)音任務(wù)帶來(lái)了顯著的進(jìn)步,但另一方面,這些模型通常包括大量的參數(shù),對(duì)硬件平臺(tái)的計(jì)算能力和內(nèi)存空間有很高的要求。為了將大模型部署到生產(chǎn)環(huán)境,模型壓縮技術(shù)至關(guān)重要。結(jié)構(gòu)化剪枝不需要特殊硬件就可以實(shí)現(xiàn)參數(shù)壓縮和推理加速,是一種對(duì)硬件友好的模型壓縮方法,但同時(shí)也會(huì)帶來(lái)較大的性能損失。為了彌補(bǔ)性能損失,我們提出了一種細(xì)粒度的注意力頭剪枝方法;除此之外,我們將梯度直通估計(jì)(Straight Through Estimator,STE)引入到L0正則化剪枝方法中,讓模型參數(shù)的分布更加緊湊,從而實(shí)現(xiàn)了進(jìn)一步的加速。我們?cè)赟UPERB排行榜上的實(shí)驗(yàn)表明,我們的壓縮模型比Wav2vec 2.0 Base模型平均性能更好,同時(shí)參數(shù)量比前者減少30%,推理時(shí)間比前者減少50%。

    論文題目:SEF-Net: Speaker Embedding Free Target Speaker Extraction Network

    論文作者:曾邦,索宏彬,李明

    論文單位:武漢大學(xué),昆山杜克大學(xué),OPPO

    核心內(nèi)容:主流的目標(biāo)說(shuō)話人分離方法使用目標(biāo)人的聲紋embedding作為參考信息。獲取聲紋embedding的方式主要有兩種:一是使用預(yù)訓(xùn)練的說(shuō)話人識(shí)別模型進(jìn)行聲紋提取,二是采用多任務(wù)學(xué)習(xí)聯(lián)合訓(xùn)練說(shuō)話人識(shí)別模型來(lái)提取聲紋。然而,由這兩種方案的聲紋提取模塊都是面向說(shuō)話人識(shí)別任務(wù)進(jìn)行最優(yōu)化訓(xùn)練的,所提取的聲紋embedding對(duì)于目標(biāo)說(shuō)話人分離任務(wù)可能并不是最優(yōu)的。本文提出一種新穎的、不依賴(lài)于聲紋embedding的時(shí)域目標(biāo)說(shuō)話人分離網(wǎng)絡(luò)SEF-Net。SEF-Net在Transformer解碼器中使用跨多頭注意力來(lái)隱式地學(xué)習(xí)注冊(cè)語(yǔ)音的Conformer編碼輸出中的說(shuō)話人信息并進(jìn)行目標(biāo)說(shuō)話人分離。實(shí)驗(yàn)結(jié)果表明,SEF-Net與其他主流目標(biāo)說(shuō)話人提取模型相比具有可比性的性能。SEF-Net為在不使用預(yù)訓(xùn)練說(shuō)話人識(shí)別模型或說(shuō)話人識(shí)別損失函數(shù)的情況下進(jìn)行目標(biāo)說(shuō)話人提取提供了新的可行方案。

    論文題目:Robust Audio Anti-Spoofing Countermeasure with Joint Training of Front-End and Back-End Models

    論文作者:王興明,曾邦,萬(wàn)玉龍,李明

    論文單位:武漢大學(xué),昆山杜克大學(xué),OPPO

    核心內(nèi)容:很多語(yǔ)音信號(hào)處理系統(tǒng)的準(zhǔn)確性和可靠性在噪聲環(huán)境下往往會(huì)急劇下降。本文討論了在噪聲環(huán)境中的魯棒偽造語(yǔ)音檢測(cè)方法構(gòu)建。首先,我們嘗試使用預(yù)訓(xùn)練的語(yǔ)音增強(qiáng)模型作為前端模型,并構(gòu)建級(jí)聯(lián)系統(tǒng)。然而,增強(qiáng)模型的獨(dú)立降噪過(guò)程可能會(huì)扭曲語(yǔ)音合成產(chǎn)生的偽影或抹除包含在語(yǔ)音中的與偽造相關(guān)信息,進(jìn)而導(dǎo)致偽造語(yǔ)音檢測(cè)性能下降。因此,本文提出了一種新的前端語(yǔ)音增強(qiáng)與后端偽造語(yǔ)音檢測(cè)聯(lián)合訓(xùn)練的框架,來(lái)實(shí)現(xiàn)對(duì)噪聲場(chǎng)景魯棒的偽造語(yǔ)音檢測(cè)模型構(gòu)建。所提出的聯(lián)合訓(xùn)練框架在帶噪場(chǎng)景的ASVSpoof 2019 LA數(shù)據(jù)集和FAD數(shù)據(jù)集上均驗(yàn)證了比樸素的偽造語(yǔ)音檢測(cè)后端更加有效。此外,本文還提出了一種交叉聯(lián)合訓(xùn)練方案,使單個(gè)模型的性能可以達(dá)到不同模型得分融合的結(jié)果,從而使聯(lián)合框架更加有效和高效。

    論文題目:Outlier-aware Inlier Modeling and Multi-scale Scoring for Anomalous Sound Detection via Multitask Learning

    論文作者:章羽聰,索宏彬,萬(wàn)玉龍,李明

    論文單位:昆山杜克大學(xué)、OPPO

    核心內(nèi)容:本文提出了一種異常聲音檢測(cè)方法,通過(guò)多任務(wù)學(xué)習(xí)將異常樣本曝光(outlier exposure)和內(nèi)部建模(inlier modeling)融合在一個(gè)統(tǒng)一的框架內(nèi)?;诋惓颖酒毓獾姆椒梢杂行У靥崛√卣?,但其魯棒性有待提高。內(nèi)部建模能夠生成魯棒的特征,但這些特征的效果并不理想。最近,一些串行和并行方法被提出來(lái)將這兩種方法結(jié)合起來(lái),但它們都需要額外的步驟完成模型建模。這對(duì)于模型的訓(xùn)練和維護(hù)都造成了一些不便。為了克服這些限制,我們使用多任務(wù)學(xué)習(xí)的方法訓(xùn)練了一個(gè)基于Conformer的編碼器,用于異常感知的內(nèi)部建模。此外,我們的方法在進(jìn)行推理的時(shí)候考慮了多尺度的異常打分,可以更加全面的評(píng)估異常值。在MIMII和DCASE 2020任務(wù)2數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,我們的方法優(yōu)于最先進(jìn)的單模型系統(tǒng),并且與比賽中排名靠前的多系統(tǒng)集成模型有相當(dāng)?shù)哪芰Α?/p>

    (免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
    任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )