4篇CV方向圖像分割中的實(shí)時分割論文
推薦論文這個事情,學(xué)姐一直在做。畢竟這個是搞科研的必經(jīng)之路,也是開始了解一個領(lǐng)域的第一步。本文推薦了CV方向圖像分割中的實(shí)時分割論文。
01
實(shí)時分割入門必讀2篇
期刊日期:
CVPR2016 ,Enet
論文名稱:
ENet: A deep neural network architecture for real-time semantic segmentation
摘要
實(shí)時執(zhí)行逐像素語義分割的能力在移動應(yīng)用程序中至關(guān)重要。
最近針對此任務(wù)的深度神經(jīng)網(wǎng)絡(luò)的缺點(diǎn)是需要大量浮點(diǎn)運(yùn)算,并且運(yùn)行時間長,這阻礙了它們的可用性。
在本文中,我們提出了一種名為 ENet(高效神經(jīng)網(wǎng)絡(luò))的新型深度神經(jīng)網(wǎng)絡(luò)架構(gòu),專為需要低延遲操作的任務(wù)而創(chuàng)建。ENet 最多快18 ×,需要 75 ×少的 FLOPs,有 79 ×更少的參數(shù),并提供與現(xiàn)有模型相似或更好的準(zhǔn)確性。我們已經(jīng)在 CamVid、Cityscapes 和 SUN 數(shù)據(jù)集上對其進(jìn)行了測試,并報告了與現(xiàn)有最先進(jìn)方法的比較以及網(wǎng)絡(luò)精度和處理時間之間的權(quán)衡。
論文鏈接:
https://arxiv.org/pdf/1606.02147.pdf
2
期刊日期:
VCIP 2017
論文名稱:
Linknet: Exploiting encoder representations for efficient semantic segmentation
摘要

作者分析了目前語義分割網(wǎng)絡(luò)的痛點(diǎn),不能夠real-time,特別是在移動端和嵌入式設(shè)備上。因此作者利用encoder-decoder結(jié)構(gòu)設(shè)計了參數(shù)和計算量較少的LinkNet網(wǎng)絡(luò),取得了不錯的效果,并兼顧的速度和準(zhǔn)確性,并在嵌入式設(shè)備TX1上進(jìn)行了實(shí)驗(yàn)。
論文鏈接:
https://arxiv.org/pdf/1707.03718.pdf
02
曠視實(shí)時分割系列佳作一
期刊日期:
ECCV 2018 BiSeNet
論文名稱:
Bisenet: Bilateral segmentation network for real-time semantic segmentation
摘要
在本文中,我們用一種新穎的雙邊分割網(wǎng)絡(luò) (BiSeNet) 解決了這個難題。我們首先設(shè)計一個小步幅的空間路徑來保留空間信息并生成高分辨率特征。同時,采用具有快速下采樣策略的上下文路徑來獲得足夠的感受野。在這兩條路徑之上,我們引入了一個新的特征融合模塊來有效地組合特征。所提出的架構(gòu)在 Cityscapes、CamVid 和 COCO-Stuff 數(shù)據(jù)集上的速度和分割性能之間取得了適當(dāng)?shù)钠胶狻?/p>
論文鏈接:
https://arxiv.org/pdf/1808.00897.pdf
03
曠視實(shí)時分割系列佳作二
期刊日期:
CVPR 2019,DFANet
論文名稱:
DFANet: Deep feature aggregation for real-time semantic segmentation
摘要:
本文介紹了一種名為 DFANet 的極其高效的 CNN 架構(gòu),用于資源約束下的語義分割。
我們提出的網(wǎng)絡(luò)從單個輕量級主干開始,并分別通過子網(wǎng)絡(luò)和子級級聯(lián)聚合判別特征?;诙喑叨忍卣鱾鞑?,DFANet大幅減少了參數(shù)數(shù)量,但仍然獲得了足夠的感受野并增強(qiáng)了模型學(xué)習(xí)能力,在速度和分割性能之間取得了平衡。
Cityscapes 和 CamVid 數(shù)據(jù)集的實(shí)驗(yàn)證明了 DFANet 的卓越性能,F(xiàn)LOP 減少了 8 FLOP 減少了 2××比現(xiàn)有最先進(jìn)的實(shí)時語義分割方法更快,同時提供可比的準(zhǔn)確性。
論文鏈接:
https://arxiv.org/pdf/1904.02216.pdf
免責(zé)聲明:所載內(nèi)容來源互聯(lián)網(wǎng),僅供參考。轉(zhuǎn)載稿件版權(quán)歸原作者和機(jī)構(gòu)所有,如有侵權(quán),請聯(lián)系我們刪除。
想要更多資料嗎?關(guān)注公眾號點(diǎn)擊底部菜單“免費(fèi)資料”進(jìn)群領(lǐng)資料!
