精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    ECCV 2020附代碼論文合集(CNN,圖像分割)

    ECCV 2020 共接受 1361 篇論文,涵蓋了包括目標(biāo)檢測,語義分割,圖像分類,點云,圖像重建,神經(jīng)網(wǎng)絡(luò)模型等熱門主題。對計算機視覺感興趣的小伙伴們也許你們已經(jīng)閱讀完論文并對論文的內(nèi)容躍躍欲試了吧!畢竟紙上得來終覺淺!這里 AMnier 整理了計算機視覺相關(guān)熱門主題下的附帶代碼的精選論文,快來尋找自己感興趣的論文并親自在自己的機器上實現(xiàn)吧!

    CNN

    1 WeightNet: Revisiting the Design Space of Weight Networks

    作者:Ningning Ma,Xiangyu Zhang,Jiawei Huang,Jian Sun

    機構(gòu):香港科技大學(xué),MEGVI研究

    簡介:本文提出了一個概念上簡單、靈活和有效的權(quán)值生成網(wǎng)絡(luò)框架。文中的方法是通用的,它將當(dāng)前兩個不同且非常有效的SENet和CondConv統(tǒng)一到一個權(quán)重空間的框架中。這個稱為WeightNet的方法通過簡單地在注意力激活層上添加一個分組的完全連接層來推廣這兩個方法。作者使用完全由(分組)完全連接層組成的WeightNet直接輸出卷積權(quán)重。WeightNet在內(nèi)核空間而不是特征空間上訓(xùn)練起來很容易,而且節(jié)省內(nèi)存。由于靈活性,他們的方法在ImageNet和COCO檢測任務(wù)上都優(yōu)于現(xiàn)有的方法,實現(xiàn)了更好的精度浮點和精度參數(shù)權(quán)衡。該框架在柔性權(quán)重空間上具有進一步提高性能的潛力。

    2 Feature Pyramid Transformer

    作者:Dong Zhang,Hanwang Zhang,Jinhui Tang,Meng Wang,Xiansheng Hua,Qianru Sun

    機構(gòu):南京科技大學(xué),南洋理工大學(xué)

    簡介:跨空間和尺度的特征交互是現(xiàn)代視覺識別系統(tǒng)的基礎(chǔ),因為它們引入了有益的視覺環(huán)境。傳統(tǒng)上,空間上下文被被動地隱藏在CNN不斷增加的接受域中,或者被非局部卷積主動編碼。然而,非局部空間相互作用并不是跨尺度的,因此它們無法捕捉到不同尺度上物體(或部件)的非局部上下文。為此,作者提出了一種跨空間和尺度的全主動特征交互,稱為特征金字塔變換器(FPT)。它通過使用三個特殊設(shè)計的自層、自上而下和自下而上的交互方式,將任何一個特征金字塔轉(zhuǎn)換成另一個大小相同但上下文更豐富的特征金字塔。FPT作為一種通用的可視化主干,具有合理的計算開銷。在實例級(即對象檢測和實例分割)和像素級分割任務(wù)中進行了大量的實驗,使用各種主干網(wǎng)和頭部網(wǎng)絡(luò),觀察到在所有基線和最新方法上的一致性改進。

    3 Dynamic Group Convolution for Accelerating Convolutional Neural Networks

    作者:Zhuo Su,Linpu Fang,Wenxiong Kang,Dewen Hu,Matti Pietik inen,Li Liu

    機構(gòu):奧盧大學(xué),華南理工大學(xué)

    簡介:用群卷積代替常規(guī)卷積可以顯著提高現(xiàn)代深卷積網(wǎng)絡(luò)的計算效率,在緊湊型網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計中得到了廣泛的應(yīng)用。然而,現(xiàn)有的群卷積會永久性地切斷某些連接,從而破壞原有的網(wǎng)絡(luò)結(jié)構(gòu),導(dǎo)致顯著的精度下降。在這篇論文中,作者提出動態(tài)群組卷積(DGC),它可以在每個群組內(nèi),針對個別樣本,自適應(yīng)地選取輸入通道的哪一部分連接。具體來說,為每組配備一個小的特征選擇器,以根據(jù)輸入圖像自動選擇最重要的輸入通道。多個組可以自適應(yīng)地為每個輸入圖像捕獲豐富且互補的視覺/語義特征。DGC保留了原有的網(wǎng)絡(luò)結(jié)構(gòu),同時具有與傳統(tǒng)群卷積相似的計算效率。在CIFAR-10、CIFAR-100和ImageNet等多個圖像分類基準上進行了大量的實驗,結(jié)果表明該算法優(yōu)于現(xiàn)有的群卷積技術(shù)和動態(tài)執(zhí)行方法。

    4 Learning to Learn Parameterized Classification Networks for Scalable Input Images

    作者:Duo Li,Anbang Yao,Qifeng Chen

    機構(gòu):香港科技大學(xué),Intel實驗室

    簡介:卷積神經(jīng)網(wǎng)絡(luò)對輸入分辨率的變化不具有可預(yù)測的識別行為。這就阻止了在特定模型的不同輸入圖像分辨率上進行部署的可行性。為了在運行時實現(xiàn)高效、靈活的圖像分類,作者使用元學(xué)習(xí)器為不同的輸入尺度生成主網(wǎng)絡(luò)的卷積權(quán)值,并在每個尺度上維護私有化的批量規(guī)范化層。為了提高訓(xùn)練性能,他們進一步利用基于不同輸入分辨率的飛越模型預(yù)測的知識蒸餾。與單獨訓(xùn)練的模型相比,學(xué)習(xí)后的元網(wǎng)絡(luò)能夠動態(tài)地參數(shù)化主網(wǎng)絡(luò)以作用于任意大小的輸入圖像,具有一致的更好的精度。在ImageNet上的大量實驗表明,在自適應(yīng)推理過程中,本文的方法實現(xiàn)了更高的精度和效率的折衷。通過切換可執(zhí)行輸入分辨率,該方法可以滿足不同資源受限環(huán)境下的快速自適應(yīng)要求。

    12下一頁>

    (免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
    任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

    贊助商
    2020-08-21
    ECCV 2020附代碼論文合集(CNN,圖像分割)
    ECCV 2020 共接受 1361 篇論文,涵蓋了包括目標(biāo)檢測,語義分割,圖像分類,點云,圖像重建,神經(jīng)網(wǎng)絡(luò)模型等熱門主題。

    長按掃碼 閱讀全文