精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    深耕前沿金融科技 度小滿三篇論文被國際頂級會議CIKM收錄

    隨著各種創(chuàng)新技術的不斷涌現(xiàn),消費者對金融需求愈加多元化。同時,作為依賴數(shù)據(jù)決策的特殊行業(yè),金融行業(yè)對新技術也有著諸多要求。作為一家創(chuàng)新驅動型的金融科技企業(yè),度小滿積極布局預訓練模型等前沿技術領域,以創(chuàng)新技術助推金融行業(yè)發(fā)展。近期,CIKM公布錄用結果,度小滿三篇文章入選,展現(xiàn)了其在創(chuàng)新技術領域的雄厚實力。

    度小滿深耕前沿技術,圍繞先進技術撰寫文章被CIKM錄用

    近日,第31屆ACM信息與知識管理國際會議(The 31th ACM International Conference on Information and Knowledge Management,CIKM 2022)公布錄用結果,度小滿AI Lab的三篇文章被錄用。這次被錄用的三篇論文,分別在預訓練模型、用戶表示、序列建模等NLP任務相關算法上取得突破性進展。

    其中,用于專家發(fā)現(xiàn)任務的ExpertBert模型,彌合了預訓練目標與下游建模任務的差距,能夠精準識別潛在的信貸需求;ENEF模型,基于非采樣策略進行專家發(fā)現(xiàn),增強了問題和用戶表示的魯棒性和穩(wěn)定性,成為CQA領域兼具性能與效率的最優(yōu)方法;DeepVT模型,全面有效地捕捉和融合視圖和時序模式,使小微客群的行為預測更精準。

    度小滿聚焦金融行業(yè),三篇論文為行業(yè)發(fā)展提供新思路

    以下是三篇論文內(nèi)容速覽:

    ExpertBert:用戶粒度預訓練框架,快速匹配高質量回答

    論文題目:ExpertBert: Pretraining Expert Finding

    度小滿團隊提出的專家發(fā)現(xiàn)預訓練語言模型ExpertBert,在預訓練階段有效地在統(tǒng)一了文本表示、用戶建模和下游任務,能夠使預訓練目標更接近下游任務,在CQA用戶表示方面做出了開創(chuàng)性貢獻。

    據(jù)悉,ExpertBert是第一個在CQA領域探索專家發(fā)現(xiàn)預訓練語言模型的方法,且在真實數(shù)據(jù)集上證明了模型的有效性和性能的優(yōu)越性。目前,該方法已在度小滿信貸獲客場景中開展使用,其頭部用信人數(shù)的召回相對提升了超10%。

    ENEF:高性能、低計算復雜度的「非采樣」專家發(fā)現(xiàn)模型

    論文題目:Efficient Non-sampling Expert Finding

    ENEF可以從所有數(shù)據(jù)樣本中更新模型參數(shù),增強問題和專家表示的穩(wěn)健性和準確性。值得注意的是,與大多數(shù)復雜神經(jīng)網(wǎng)絡方法相比,ENEF使用基礎框架和少量參數(shù),達到了更高的訓練效率。經(jīng)對比實驗驗證,是當前CQA非抽樣專家發(fā)現(xiàn)模型中,性能最好且訓練效率更高的最優(yōu)方法。

    DeepVT:視圖與時序模式交互,全面、精準預測用戶畫像

    論文題目:Deep View-Temporal Interaction Network for News Recommendation

    DeepVT模型主要關注于用戶建模的視圖級信息,有效解決了用戶畫像建模中僅關單一的視圖交互或時序信息的問題。該模型構建了2D半因果卷積神經(jīng)網(wǎng)絡(SC-CNN)和多算子注意力(MoA)兩個模塊。其中,前者可以同時高效地合成視圖級別的交互信息和項目級別的時間信息;而后者在自注意力函數(shù)中綜合不同的相似算子,可以避免注意力偏差,增強魯棒性。

    度小滿不斷加強創(chuàng)新技術研究,在多個前沿技術領域持續(xù)取得新突破。本次三篇論文入圍CIKM,不僅展現(xiàn)了度小滿的技術實力,也為今后加快創(chuàng)新技術研究提供了有利基礎。未來,度小滿等企業(yè)將繼續(xù)瞄準數(shù)字金融服務新藍海,以創(chuàng)新科技引領金融行業(yè)升級。

    (免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
    任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )