精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    京東云與AI 10篇論文被AAAI 2020收錄,京東科技實(shí)力亮相世界舞臺(tái)

    美國(guó)時(shí)間2月7-12日,AAAI 2020大會(huì)在紐約正式拉開(kāi)序幕,AAAI作為全球人工智能領(lǐng)域的頂級(jí)學(xué)術(shù)會(huì)議,每年評(píng)審并收錄來(lái)自全球最頂尖的學(xué)術(shù)論文,這些學(xué)術(shù)研究引領(lǐng)著技術(shù)的趨勢(shì)和未來(lái)。京東云與AI在本次大會(huì)上有10篇論文被AAAI收錄,涉及自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、機(jī)器學(xué)習(xí)等領(lǐng)域,充分展現(xiàn)了京東用技術(shù)驅(qū)動(dòng)公司成長(zhǎng)的發(fā)展模式以及技術(shù)實(shí)力,技術(shù)創(chuàng)新和應(yīng)用落地也成為這些論文最吸引行業(yè)關(guān)注的亮點(diǎn)。

    本屆會(huì)議共收到的有效論文投稿超過(guò)8800篇,其中7737 篇論文進(jìn)入評(píng)審環(huán)節(jié),最終錄取數(shù)量為1591篇,錄取率為20.6%。京東云與AI共有10篇論文入選AAAI 2020,研究領(lǐng)域涵蓋人臉識(shí)別、人臉解析、機(jī)器閱讀理解、文本生成、對(duì)抗樣本與模型魯棒性、智慧城市等前沿的技術(shù)研究領(lǐng)域,這些能力目前已在市政安防、實(shí)體零售、智能客服等業(yè)務(wù)場(chǎng)景下規(guī)?;涞?,未來(lái)京東云與AI作為值得信賴的智能技術(shù)提供者,會(huì)持續(xù)進(jìn)行技術(shù)與業(yè)務(wù)融合的探索,這些落地的技術(shù)能力也將迎來(lái)更加廣闊的應(yīng)用前景。

    以下是京東云與AI此次入選10篇論文:

    對(duì)抗樣本與模型魯棒性研究

    1. 基于Frank-Wolfe框架的高效對(duì)抗攻擊算法

    A Frank-Wolfe Framework for Efficient and Effective Adversarial Attacks

    論文鏈接:https://arxiv.org/pdf/1811.10828.pdf;

    根據(jù)模型攻擊者可獲取的信息量來(lái)區(qū)分,對(duì)抗樣本攻擊可分為白盒與黑盒兩種攻擊形式。雖然基于優(yōu)化的攻擊算法如PGD等可以在白盒攻擊情況下獲得較高的攻擊成功率,但它們生成的對(duì)抗樣本往往有著較高的失真度。此外,它們相應(yīng)的黑盒攻擊算法通常查詢效率較差,需要對(duì)被攻擊的黑盒模型訪問(wèn)非常多次才能實(shí)現(xiàn)攻擊,從而大幅限制了它們的實(shí)用性。針對(duì)這一問(wèn)題,京東、弗吉尼亞大學(xué)和加州大學(xué)洛杉磯分校合作提出了一種基于Frank-Wolfe框架的高效對(duì)抗攻擊算法,可靈活運(yùn)用于白盒和黑盒對(duì)抗樣本攻擊。

    作者從理論上證明了所提的攻擊算法具有較快的收斂速率,并在ImageNet和MNIST數(shù)據(jù)集上驗(yàn)證了所提出算法的性能。對(duì)比所有參評(píng)的白盒與黑盒攻擊基準(zhǔn)算法,本文提出的算法在攻擊成功率,攻擊時(shí)間和查詢效率上均顯著占優(yōu)。

    2. 通過(guò)對(duì)抗樣本評(píng)估序列到序列模型魯棒性

    Seq2Sick: Evaluating the Robustness of Sequence-to-Sequence Models with Adversarial Examples

    論文鏈接:https://arxiv.org/pdf/1803.01128.pdf;

    利用對(duì)抗樣本攻擊的難易度來(lái)評(píng)估深度神經(jīng)網(wǎng)絡(luò)的魯棒性已成為業(yè)界常用的方法之一。然而,大多數(shù)現(xiàn)有的對(duì)抗攻擊算法都集中在基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類問(wèn)題上,因?yàn)樗妮斎肟臻g連續(xù)且輸出空間有限,便于實(shí)現(xiàn)對(duì)抗樣本攻擊。在本文中,來(lái)自京東、加州大學(xué)洛杉磯分校和IBM研究院的研究者們探索了一個(gè)更加困難的問(wèn)題,即如何攻擊基于循環(huán)神經(jīng)網(wǎng)絡(luò)的序列到序列(Sequence to Sequence)模型。這一模型的輸入是離散的文本字符串,而輸出的可能取值則幾乎是無(wú)窮的,因此難以設(shè)計(jì)對(duì)抗攻擊方案,在本文之前也未被成功攻破過(guò)。為了解決離散輸入空間帶來(lái)的挑戰(zhàn),研究者們提出了結(jié)合group lasso和梯度正則化的投影梯度方法。針對(duì)近乎無(wú)限輸出空間帶來(lái)的問(wèn)題,他們也設(shè)計(jì)了一些全新的損失函數(shù)來(lái)實(shí)現(xiàn)兩種新的攻擊方式:(1) 非重疊攻擊,即保證模型被攻擊后的輸出語(yǔ)句與正常情況下的輸出語(yǔ)句不存在任何重合,(2)目標(biāo)關(guān)鍵詞攻擊,即給定任意一組關(guān)鍵詞,保證模型被攻擊后的輸出語(yǔ)句包含這些關(guān)鍵詞。

    最終,研究者們將算法應(yīng)用于序列到序列模型常用的兩大任務(wù)機(jī)器翻譯和文本摘要中,發(fā)現(xiàn)通過(guò)對(duì)輸入文本做輕微的改動(dòng),即可以顯著改變序列到序列模型的輸出,成功實(shí)現(xiàn)了對(duì)抗樣本攻擊。同時(shí),研究者們也指出,雖然攻擊取得了成功,但與基于卷積神經(jīng)網(wǎng)絡(luò)的分類模型相比,序列到序列模型的對(duì)抗攻擊難度更大,且對(duì)抗樣本更容易被發(fā)現(xiàn),因此從對(duì)抗攻擊的角度進(jìn)行衡量,序列到序列模型是一種魯棒性更優(yōu)的模型。

    機(jī)器閱讀理解

    3. 多跳多文檔閱讀理解研究

    Select, Answer and Explain: Interpretable Multi-hop Reading Comprehension over Multiple Documents

    論文鏈接:https://arxiv.org/pdf/1911.00484v2.pdf;

    可解釋的對(duì)多文檔多跳閱讀理解(RC)是一個(gè)具有挑戰(zhàn)性的問(wèn)題,因?yàn)樗枰獙?duì)多個(gè)信息源進(jìn)行推理并通過(guò)提供支持證據(jù)來(lái)解釋答案預(yù)測(cè)。《Select, Answer and Explain: Interpretable Multi-hop Reading Comprehension over Multiple Documents》論文中提出了一種可解釋的多跳多文檔閱讀理解的方法,通過(guò)設(shè)計(jì)一個(gè)有效的文檔篩選模塊和基于圖神經(jīng)網(wǎng)絡(luò)的推理模塊,針對(duì)給定問(wèn)題可以同時(shí)準(zhǔn)確的找出問(wèn)題的答案以及支持答案的證據(jù)。

    圖1. 多跳多文檔閱讀理解方法示意圖

    文本生成

    4. 基于要素感知的多模態(tài)電商商品摘要

    Aspect-Aware Multimodal Summarization for Chinese E-Commerce Products

    論文鏈接:?http://box.jd.com/sharedInfo/2926429040ECC7D3;

    論文《Aspect-Aware Multimodal Summarization for Chinese E-Commerce Products》中提出了一個(gè)基于商品要素的多模態(tài)商品信息自動(dòng)摘要系統(tǒng),其可以根據(jù)商品的文本描述和商品圖片自動(dòng)生成商品營(yíng)銷短文。商品的外觀決定了用戶對(duì)該商品的第一印象,商品的功能屬性最終決定了用戶的購(gòu)買(mǎi)行為,論文提出的多模態(tài)商品信息自動(dòng)摘要系統(tǒng)可以有效的整合商品的外觀和功能信息,自動(dòng)捕捉到該商品的特色賣點(diǎn),并為其生成一段簡(jiǎn)短的營(yíng)銷短文。不同的用戶關(guān)注的商品要素往往是不同的,比如冰箱的“能耗”和”容量”,手機(jī)的“內(nèi)存”和“屏幕”。系統(tǒng)以商品要素為切入點(diǎn),挖掘商品最有賣點(diǎn)的商品要素,并從商品要素維度控制輸出文本的信息冗余度、可讀性和對(duì)輸入信息的忠實(shí)度,最終生成一段簡(jiǎn)潔凝練、賣點(diǎn)突出、流暢、合規(guī)的商品營(yíng)銷短文,以期待引起潛在購(gòu)買(mǎi)者的共鳴。

    圖2. 模型框架圖

    5. 基于關(guān)鍵詞指導(dǎo)的生成式句子摘要

    Keywords-Guided Abstractive Sentence Summarization

    論文鏈接:?http://box.jd.com/sharedInfo/B2234BB08E365EEC;

    《Keywords-Guided Abstractive Sentence Summarization》論文中提出了一種文本摘要的新方法,即利用輸入文本的關(guān)鍵詞信息提高了文本摘要模型的質(zhì)量。論文模擬了人類生成摘要的過(guò)程:當(dāng)人類為某一段文本生成摘要時(shí),首先會(huì)對(duì)該文本進(jìn)行閱讀,并識(shí)別出里面的關(guān)鍵詞,進(jìn)而通過(guò)創(chuàng)作加工,將這些關(guān)鍵詞以流暢的語(yǔ)言表達(dá)出來(lái)。另外,文本摘要和文本關(guān)鍵詞抽取在本質(zhì)上是相通的,即都是在輸入文本中提取關(guān)鍵信息,僅僅是輸出的形式有所差異?;谏鲜鏊伎?,論文提出一個(gè)多任務(wù)學(xué)習(xí)框架,通過(guò)一個(gè)共享的編碼器,互相強(qiáng)化文本摘要和關(guān)鍵詞抽取任務(wù)。在解碼器生成摘要時(shí),利用關(guān)鍵詞的信息和原始輸入文本進(jìn)行交互,通過(guò)雙重注意力和雙重拷貝機(jī)制,在關(guān)鍵詞的指導(dǎo)下,為輸入文本生成摘要。

    圖3. 共選擇編碼模型的框架

    6. 基于多模態(tài)信息指導(dǎo)的多模態(tài)摘要

    Multimodal Summarization with Guidance of Multimodal Reference

    論文鏈接:http://box.jd.com/sharedInfo/36929195FF05B01F;

    論文《Multimodal Summarization with Guidance of Multimodal Reference》提出了一種基于多模態(tài)信息監(jiān)督的多模態(tài)自動(dòng)摘要模型,該模型以文本和圖片作為輸入,生成圖文并茂的摘要。傳統(tǒng)的多模態(tài)自動(dòng)摘要模型在訓(xùn)練過(guò)程中,往往以文本參考摘要的極大似然損失作為目標(biāo)函數(shù),然后利用注意力機(jī)制來(lái)挑選與文本相對(duì)應(yīng)的圖片。這種做法容易帶來(lái)模態(tài)偏差的問(wèn)題,即模型會(huì)傾向于優(yōu)化文本生成的質(zhì)量而忽視了圖片挑選的質(zhì)量。論文提出的模型優(yōu)化了多模態(tài)摘要模型的目標(biāo)函數(shù),即在文本參考摘要的損失函數(shù)的基礎(chǔ)上增加了圖片參考摘要的損失函數(shù)。實(shí)驗(yàn)發(fā)現(xiàn),在引入了多模態(tài)信息監(jiān)督訓(xùn)練后,多模態(tài)自動(dòng)摘要模型的圖片挑選質(zhì)量得到了顯著的改善,文本生成質(zhì)量也有所改進(jìn),從而可以生成更高質(zhì)量的圖文摘要。

    圖4. 多模態(tài)基準(zhǔn)指導(dǎo)的多模態(tài)自動(dòng)文摘框架圖

    7. 文本到SQL的生成研究

    Zero-shot Text-to-SQL Learning with Auxiliary Task

    論文鏈接:https://arxiv.org/pdf/1908.11052.pdf;

    近年來(lái),在Text-to-SQL任務(wù)中使用神經(jīng)Seq2Seq模型取得了巨大的成功。但是,很少有研究關(guān)注這些模型如何推廣到實(shí)際不可見(jiàn)數(shù)據(jù)中。論文《Zero-shot Text-to-SQL Learning with Auxiliary Task》通過(guò)設(shè)計(jì)一個(gè)有效的輔助任務(wù)支持模型以及生成任務(wù)的正則化項(xiàng),以增加模型的泛化能力。通過(guò)在大型文本到SQL數(shù)據(jù)集WikiSQL上實(shí)驗(yàn)評(píng)估模型,與強(qiáng)大的基線粗到精模型相比,論文中打造的模型在整個(gè)數(shù)據(jù)集上的絕對(duì)精度比基線提高了3%以上。在WikiSQL的Zero-shot子集測(cè)試中,這一模型在基線上獲得了5%的絕對(duì)準(zhǔn)確度增益,清楚地證明了其卓越的通用性。

    圖5. 論文設(shè)計(jì)的模型示意圖

    智慧城市研究

    8. 車站潛在客流的智能化預(yù)測(cè)

    Potential Passenger Flow Prediction: A Novel Study for Urban Transportation Development

    論文鏈接:https://arxiv.org/pdf/1912.03440.pdf;

    隨著城市人口的增多和城市化的不斷發(fā)展,公共交通工具如地鐵正在發(fā)揮著越來(lái)越重要的作用。為了讓地鐵能夠發(fā)揮更大的作用,方便人們出行,需要精準(zhǔn)預(yù)測(cè)每個(gè)車站在未來(lái)的潛在客流量,從而為地鐵站的選址和建設(shè)規(guī)模提供建議。針對(duì)這一問(wèn)題,京東和悉尼科技大學(xué)的研究者們合作提出了一種多視圖局部相關(guān)性學(xué)習(xí)方法。其核心思想是利用自適應(yīng)權(quán)重來(lái)了解目標(biāo)區(qū)域及其局部區(qū)域之間的客流相關(guān)性,并通過(guò)嵌入一些領(lǐng)域知識(shí)到多視圖學(xué)習(xí)過(guò)程中的方法來(lái)綜合提升對(duì)潛在客流的預(yù)測(cè)準(zhǔn)確性。

    圖6:潛在客流預(yù)測(cè)問(wèn)題

    圖7:模型流程圖

    文中通過(guò)大量的實(shí)驗(yàn)結(jié)果表明,相比于一些其他預(yù)測(cè)算法,論文中提出的方法取得了顯著更優(yōu)的預(yù)測(cè)準(zhǔn)確性,可以為車站規(guī)劃和城市智能化建設(shè)提供更為有力的保障。此外,文中所提的思路也對(duì)解決推薦系統(tǒng)中的冷啟動(dòng)問(wèn)題提供了一定的借鑒意義。

    人臉識(shí)別

    9. 基于分錯(cuò)特征引導(dǎo)的損失函數(shù)

    Mis-classified Vector Guided Softmax Loss for Face Recognition

    論文鏈接:https://arxiv.org/pdf/1912.00833.pdf;

    在人臉識(shí)別領(lǐng)域,各個(gè)場(chǎng)景下的應(yīng)用對(duì)算法能力提出了更高的要求。人臉識(shí)別的規(guī)模已從原來(lái)的千人、萬(wàn)人級(jí)增大到百萬(wàn)人甚至千萬(wàn)人。目前研究面臨的一大挑戰(zhàn)是在識(shí)別規(guī)模越來(lái)越大的場(chǎng)景下,如何在較低的誤識(shí)率的同時(shí)保持識(shí)別通過(guò)率?,F(xiàn)有的人臉識(shí)別主流訓(xùn)練算法主要?dú)w類為margin-based和mining-based兩大類,但都存在各自的方法上的缺陷。論文《Mis-classified Vector Guided Softmax Loss for Face Recognition》就針對(duì)如何讓模型學(xué)習(xí)得到判別能力更優(yōu)秀的人臉特征,研究了一種新的人臉識(shí)別訓(xùn)練算法,利用論文中提出的Mis-classified Vector Guided Softmax,能夠同時(shí)優(yōu)化現(xiàn)有方法存在的缺陷,并且?guī)椭R(shí)別網(wǎng)絡(luò)在訓(xùn)練過(guò)程中獲得更有針對(duì)性的難例強(qiáng)調(diào),實(shí)現(xiàn)更據(jù)鑒別能力的模型訓(xùn)練。論文的方法在目前多個(gè)公開(kāi)人臉識(shí)別測(cè)試集上驗(yàn)證了有效性,并且識(shí)別精度超過(guò)了現(xiàn)有的方法。

    圖8. MV-Softmax特征的幾何解釋

    人臉解析

    10. 數(shù)據(jù)庫(kù)和一種邊緣感知的語(yǔ)義分割方法

    A New Dataset and Boundary-Attention Semantic Segmentation for Face Parsing

    論文鏈接:?http://box.jd.com/sharedInfo/C1BEAD9CBDB50DA3;

    近年來(lái),人臉解析因其潛在的應(yīng)用價(jià)值而受到了越來(lái)越多的關(guān)注。論文《A New Dataset and Boundary-Attention Semantic Segmentation for Face Parsing》從人臉解析領(lǐng)域存在的問(wèn)題出發(fā),在數(shù)據(jù)和算法兩個(gè)方面做出了貢獻(xiàn)。首先,論文提出了一種高效的像素級(jí)的人臉解析數(shù)據(jù)標(biāo)注框架,該框架極大的降低了數(shù)據(jù)的標(biāo)注難度,使他們?cè)诙虝r(shí)間內(nèi)構(gòu)建了一個(gè)大規(guī)模的人臉解析數(shù)據(jù)集(LaPa)。該數(shù)據(jù)集包含了超過(guò)22,000張人臉圖片,且覆蓋了多種姿態(tài)、光照和表情變化。同時(shí),本文還提出了一種有效的邊界注意力的語(yǔ)義分割方法(BASS),該方法從網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)兩方面著手,充分利用圖像的邊界信息來(lái)提升語(yǔ)義分割精度,論文中設(shè)計(jì)了大量的實(shí)驗(yàn)來(lái)驗(yàn)證該方法的有效性,同時(shí)該方法取得了公開(kāi)數(shù)據(jù)集Helen上SOTA的性能。

    圖9.BASS的網(wǎng)絡(luò)結(jié)構(gòu)示意圖

    從這些前沿的研究成果不難看出,京東云與AI正致力于將語(yǔ)音語(yǔ)義、計(jì)算機(jī)視覺(jué)、機(jī)器學(xué)習(xí)等技術(shù)在商品推薦、實(shí)體零售等領(lǐng)域持續(xù)落地應(yīng)用,不僅注重技術(shù)的先進(jìn)性,更注重應(yīng)用的可信賴。一直以來(lái)京東云與AI致力于踐行可信賴的AI,“可信賴的AI”不是口號(hào),也不僅僅是價(jià)值觀層面。它有六個(gè)維度,公平、魯棒性、價(jià)值對(duì)齊、可復(fù)制、可解釋和負(fù)責(zé)任,此次入選論文中就包含著對(duì)“對(duì)抗樣本與模型魯棒性”的研究。一面是對(duì)技術(shù)的巨大挑戰(zhàn),一面是人文精神,成為最值得信賴的智能技術(shù)提供者正是京東云與AI執(zhí)著追求的社會(huì)責(zé)任與價(jià)值體現(xiàn)。

    2019年8月,以NeuHub京東人工智能開(kāi)放平臺(tái)為載體,京東入選智能供應(yīng)鏈國(guó)家人工智能開(kāi)放平臺(tái),依托這一平臺(tái)的技術(shù)積累,京東云與AI在疫情期間快速推出應(yīng)急資源信息發(fā)布平臺(tái),上線半個(gè)月時(shí)間即幫助湖北、武漢及其他疫情波及地區(qū)供應(yīng)醫(yī)療類、消毒類、生活類等各類救援物資超過(guò)2.6億件,供應(yīng)藥品超過(guò)4億盒。其中包含各類口罩1.5億只、護(hù)目鏡40.6萬(wàn)個(gè)、防護(hù)服鞋套283.72萬(wàn)套等抗疫必需品;基于京東云與AI領(lǐng)先的語(yǔ)音語(yǔ)義技術(shù)研發(fā)的智能疫情助理,已在北京、山東、安徽、江蘇、江西、四川等地的十多個(gè)行業(yè)、一千余家組織和機(jī)構(gòu)中快速落地,免費(fèi)提供疫情咨詢服務(wù),累計(jì)服務(wù)咨詢數(shù)量達(dá)數(shù)百萬(wàn)條。切實(shí)讓民眾在疫情這一特殊時(shí)期感受到技術(shù)帶來(lái)的溫暖和便利。

    2019年,京東在云、AI、IoT等技術(shù)領(lǐng)域和業(yè)務(wù)的探索完成了京東云與AI在ABCDE技術(shù)戰(zhàn)略的布局。這個(gè)戰(zhàn)略是我們技術(shù)上深度融合,融合AI(人工智能)、Big Data(大數(shù)據(jù))、Cloud(云計(jì)算)、Devices(IoT)和Exploration(前沿探索)對(duì)外賦能,為產(chǎn)業(yè)融合、科技創(chuàng)新,提供最堅(jiān)實(shí)、最前沿、最可信賴的基礎(chǔ)設(shè)施和服務(wù)。

    京東云與AI總裁、京東集團(tuán)技術(shù)委員會(huì)主席周伯文博士表示,京東技術(shù)戰(zhàn)略“ABCDE”的本質(zhì)是促進(jìn)技術(shù)融合帶來(lái)的價(jià)值疊加,通過(guò)前沿技術(shù)的研發(fā),與行業(yè)Know-how進(jìn)一步緊密結(jié)合,與合作伙伴一道共建良好的技術(shù)合作生態(tài),并時(shí)刻要以用例為中心,用京東云與AI的技術(shù)積累對(duì)外賦能,解決真實(shí)場(chǎng)景問(wèn)題,以最終實(shí)現(xiàn)面向社會(huì)創(chuàng)造更多價(jià)值。

    如何進(jìn)行技術(shù)和產(chǎn)業(yè)的融合一直是AI行業(yè)和企業(yè)關(guān)注的重點(diǎn)。2020年,京東云與AI作為“技術(shù)輸出”的先行者,他的身影還將在更多的全球頂級(jí)學(xué)術(shù)、科技大會(huì)上出現(xiàn),并持續(xù)深耕技術(shù)與實(shí)體經(jīng)濟(jì)的融合,探索技術(shù)的邊界與應(yīng)用價(jià)值,推動(dòng)產(chǎn)學(xué)研用的一體化建設(shè)。京東云與AI也將繼續(xù)用扎實(shí)的技術(shù)積累對(duì)外賦能,與社會(huì)各界共同創(chuàng)造并見(jiàn)證云智聯(lián)世界、產(chǎn)業(yè)互聯(lián)網(wǎng)蓬勃發(fā)展的新時(shí)代!

    極客網(wǎng)企業(yè)會(huì)員

    免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

    2020-02-16
    京東云與AI 10篇論文被AAAI 2020收錄,京東科技實(shí)力亮相世界舞臺(tái)
    美國(guó)時(shí)間2月7-12日,AAAI 2020大會(huì)在紐約正式拉開(kāi)序幕,AAAI作為全球人工智能領(lǐng)域的頂級(jí)學(xué)術(shù)會(huì)議,每年評(píng)審并收錄來(lái)自全球最頂尖的學(xué)術(shù)論文,這些學(xué)術(shù)研究引領(lǐng)著技術(shù)的趨勢(shì)和未來(lái)。

    長(zhǎng)按掃碼 閱讀全文