ECCV 2020附代碼論文合集(CNN,圖像分割)

ECCV 2020 共接受 1361 篇論文,涵蓋了包括目標(biāo)檢測(cè),語(yǔ)義分割,圖像分類,點(diǎn)云,圖像重建,神經(jīng)網(wǎng)絡(luò)模型等熱門主題。對(duì)計(jì)算機(jī)視覺(jué)感興趣的小伙伴們也許你們已經(jīng)閱讀完論文并對(duì)論文的內(nèi)容躍躍欲試了吧!畢竟紙上得來(lái)終覺(jué)淺!這里 AMnier 整理了計(jì)算機(jī)視覺(jué)相關(guān)熱門主題下的附帶代碼的精選論文,快來(lái)尋找自己感興趣的論文并親自在自己的機(jī)器上實(shí)現(xiàn)吧!

CNN

1 WeightNet: Revisiting the Design Space of Weight Networks

作者:Ningning Ma,Xiangyu Zhang,Jiawei Huang,Jian Sun

機(jī)構(gòu):香港科技大學(xué),MEGVI研究

簡(jiǎn)介:本文提出了一個(gè)概念上簡(jiǎn)單、靈活和有效的權(quán)值生成網(wǎng)絡(luò)框架。文中的方法是通用的,它將當(dāng)前兩個(gè)不同且非常有效的SENet和CondConv統(tǒng)一到一個(gè)權(quán)重空間的框架中。這個(gè)稱為WeightNet的方法通過(guò)簡(jiǎn)單地在注意力激活層上添加一個(gè)分組的完全連接層來(lái)推廣這兩個(gè)方法。作者使用完全由(分組)完全連接層組成的WeightNet直接輸出卷積權(quán)重。WeightNet在內(nèi)核空間而不是特征空間上訓(xùn)練起來(lái)很容易,而且節(jié)省內(nèi)存。由于靈活性,他們的方法在ImageNet和COCO檢測(cè)任務(wù)上都優(yōu)于現(xiàn)有的方法,實(shí)現(xiàn)了更好的精度浮點(diǎn)和精度參數(shù)權(quán)衡。該框架在柔性權(quán)重空間上具有進(jìn)一步提高性能的潛力。

2 Feature Pyramid Transformer

作者:Dong Zhang,Hanwang Zhang,Jinhui Tang,Meng Wang,Xiansheng Hua,Qianru Sun

機(jī)構(gòu):南京科技大學(xué),南洋理工大學(xué)

簡(jiǎn)介:跨空間和尺度的特征交互是現(xiàn)代視覺(jué)識(shí)別系統(tǒng)的基礎(chǔ),因?yàn)樗鼈円肓擞幸娴囊曈X(jué)環(huán)境。傳統(tǒng)上,空間上下文被被動(dòng)地隱藏在CNN不斷增加的接受域中,或者被非局部卷積主動(dòng)編碼。然而,非局部空間相互作用并不是跨尺度的,因此它們無(wú)法捕捉到不同尺度上物體(或部件)的非局部上下文。為此,作者提出了一種跨空間和尺度的全主動(dòng)特征交互,稱為特征金字塔變換器(FPT)。它通過(guò)使用三個(gè)特殊設(shè)計(jì)的自層、自上而下和自下而上的交互方式,將任何一個(gè)特征金字塔轉(zhuǎn)換成另一個(gè)大小相同但上下文更豐富的特征金字塔。FPT作為一種通用的可視化主干,具有合理的計(jì)算開(kāi)銷。在實(shí)例級(jí)(即對(duì)象檢測(cè)和實(shí)例分割)和像素級(jí)分割任務(wù)中進(jìn)行了大量的實(shí)驗(yàn),使用各種主干網(wǎng)和頭部網(wǎng)絡(luò),觀察到在所有基線和最新方法上的一致性改進(jìn)。

3 Dynamic Group Convolution for Accelerating Convolutional Neural Networks

作者:Zhuo Su,Linpu Fang,Wenxiong Kang,Dewen Hu,Matti Pietik inen,Li Liu

機(jī)構(gòu):奧盧大學(xué),華南理工大學(xué)

簡(jiǎn)介:用群卷積代替常規(guī)卷積可以顯著提高現(xiàn)代深卷積網(wǎng)絡(luò)的計(jì)算效率,在緊湊型網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)中得到了廣泛的應(yīng)用。然而,現(xiàn)有的群卷積會(huì)永久性地切斷某些連接,從而破壞原有的網(wǎng)絡(luò)結(jié)構(gòu),導(dǎo)致顯著的精度下降。在這篇論文中,作者提出動(dòng)態(tài)群組卷積(DGC),它可以在每個(gè)群組內(nèi),針對(duì)個(gè)別樣本,自適應(yīng)地選取輸入通道的哪一部分連接。具體來(lái)說(shuō),為每組配備一個(gè)小的特征選擇器,以根據(jù)輸入圖像自動(dòng)選擇最重要的輸入通道。多個(gè)組可以自適應(yīng)地為每個(gè)輸入圖像捕獲豐富且互補(bǔ)的視覺(jué)/語(yǔ)義特征。DGC保留了原有的網(wǎng)絡(luò)結(jié)構(gòu),同時(shí)具有與傳統(tǒng)群卷積相似的計(jì)算效率。在CIFAR-10、CIFAR-100和ImageNet等多個(gè)圖像分類基準(zhǔn)上進(jìn)行了大量的實(shí)驗(yàn),結(jié)果表明該算法優(yōu)于現(xiàn)有的群卷積技術(shù)和動(dòng)態(tài)執(zhí)行方法。

4 Learning to Learn Parameterized Classification Networks for Scalable Input Images

作者:Duo Li,Anbang Yao,Qifeng Chen

機(jī)構(gòu):香港科技大學(xué),Intel實(shí)驗(yàn)室

簡(jiǎn)介:卷積神經(jīng)網(wǎng)絡(luò)對(duì)輸入分辨率的變化不具有可預(yù)測(cè)的識(shí)別行為。這就阻止了在特定模型的不同輸入圖像分辨率上進(jìn)行部署的可行性。為了在運(yùn)行時(shí)實(shí)現(xiàn)高效、靈活的圖像分類,作者使用元學(xué)習(xí)器為不同的輸入尺度生成主網(wǎng)絡(luò)的卷積權(quán)值,并在每個(gè)尺度上維護(hù)私有化的批量規(guī)范化層。為了提高訓(xùn)練性能,他們進(jìn)一步利用基于不同輸入分辨率的飛越模型預(yù)測(cè)的知識(shí)蒸餾。與單獨(dú)訓(xùn)練的模型相比,學(xué)習(xí)后的元網(wǎng)絡(luò)能夠動(dòng)態(tài)地參數(shù)化主網(wǎng)絡(luò)以作用于任意大小的輸入圖像,具有一致的更好的精度。在ImageNet上的大量實(shí)驗(yàn)表明,在自適應(yīng)推理過(guò)程中,本文的方法實(shí)現(xiàn)了更高的精度和效率的折衷。通過(guò)切換可執(zhí)行輸入分辨率,該方法可以滿足不同資源受限環(huán)境下的快速自適應(yīng)要求。

12下一頁(yè)>

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

贊助商
2020-08-21
ECCV 2020附代碼論文合集(CNN,圖像分割)
ECCV 2020 共接受 1361 篇論文,涵蓋了包括目標(biāo)檢測(cè),語(yǔ)義分割,圖像分類,點(diǎn)云,圖像重建,神經(jīng)網(wǎng)絡(luò)模型等熱門主題。

長(zhǎng)按掃碼 閱讀全文