CV論文推薦-圖像分割經(jīng)典論文
學(xué)姐又來挖坑了,上周機器學(xué)習(xí)專題的坑剛挖好,這周就開始挖CV論文的坑了。學(xué)姐的目的就是多挖坑,讓你們從這個坑走到那個坑,永遠逃不出我的手掌心。

但是!挖坑是因為想給你們的東西太多了,不是說內(nèi)容水哦!學(xué)姐可是非??犊?,這不有的論文有視頻講解,就絕對不會藏著掖著,全都給你們。

經(jīng)典必讀第一篇
深度學(xué)習(xí)語義分割開山之作
01
期刊日期:
CVPR 2015,F(xiàn)CN
論文名稱:
Fully convolutional networks for semantic segmentation
摘要:
卷積網(wǎng)絡(luò)在特征分層領(lǐng)域是非常強大的視覺模型。我們證明了經(jīng)過端到端、像素到像素訓(xùn)練的卷積網(wǎng)絡(luò)超過語義分割中最先進的技術(shù)。
我們的核心觀點是建立“全卷積”網(wǎng)絡(luò),輸入任意尺寸,經(jīng)過有效的推理和學(xué)習(xí)產(chǎn)生相應(yīng)尺寸的輸出。
我們定義并指定全卷積網(wǎng)絡(luò)的空間,解釋它們在空間范圍內(nèi)dense prediction任務(wù)(預(yù)測每個像素所屬的類別)和獲取與先驗?zāi)P吐?lián)系的應(yīng)用。
我們改編當(dāng)前的分類網(wǎng)絡(luò)(AlexNet [22] ,the VGG net [34] , and GoogLeNet [35] )到完全卷積網(wǎng)絡(luò)和通過微調(diào) [5]傳遞它們的學(xué)習(xí)表現(xiàn)到分割任務(wù)中。
然后我們定義了一個跳躍式的架構(gòu),結(jié)合來自深、粗層的語義信息和來自淺、細層的表征信息來產(chǎn)生準(zhǔn)確和精細的分割。
我們的完全卷積網(wǎng)絡(luò)成為了在PASCAL VOC最出色的分割方式(在2012年相對62.2%的平均IU提高了20%),NYUDv2,和SIFT Flow,對一個典型圖像推理只需要花費不到0.2秒的時間。
論文鏈接:
(論文,代碼,視頻講解,【學(xué)姐帶你玩AI】公眾號后臺回復(fù)“FCN”領(lǐng)取代碼和講解視頻)
醫(yī)學(xué)圖像分割領(lǐng)頭者
01
期刊日期:
MICCA 2015,U-Net
論文名稱:
U-Net: Convolutional Networks for Biomedical Image Segmentation
摘要:
網(wǎng)絡(luò)結(jié)構(gòu)包括一個捕獲上下文信息的收縮路徑和一個用于精確定位的對稱擴張路徑,該網(wǎng)絡(luò)能使用很少的圖像就能夠進行端到端的訓(xùn)練,并且在ISBI對電子顯微鏡下神經(jīng)元結(jié)構(gòu)進行的分割挑戰(zhàn)方面勝過先前的最佳方法(滑動窗口卷積網(wǎng)絡(luò))。

論文鏈接:
https://arxiv.org/pdf/1505.04597v1.pdf
包含經(jīng)過訓(xùn)練的網(wǎng)絡(luò)、源代碼等:
https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/u-net-release-2015-10-02.tar.gz
02
期刊日期:
ICLR 2018
論文名稱:
FusionNet: A deep fully residual convolutional neural network for image segmentation in connectomics
摘要:
Electron microscopic connectomics(電子顯微鏡連接組學(xué))是一個炙手可熱的研究方向,致力于通過高通量、納米級顯微鏡來綜合理解腦部連接圖。但是人工消耗很大,現(xiàn)在深度學(xué)習(xí)網(wǎng)絡(luò)發(fā)展的如日中天,我們搭建了一個FusionNet網(wǎng)絡(luò),用于在連接組學(xué)數(shù)據(jù)中自動分割神經(jīng)元結(jié)構(gòu)。(用神經(jīng)網(wǎng)絡(luò)去研究神經(jīng)網(wǎng)絡(luò))
FusionNet利用了機器學(xué)習(xí)的最新進展,如語義分割和殘差網(wǎng)絡(luò),并引入了允許更深的網(wǎng)絡(luò)架構(gòu)來實現(xiàn)更準(zhǔn)確的分割的基于累加的跳過連接。
我們與ISBI EM segmentation challenge(這是一個挑戰(zhàn)賽,EM指電子顯微鏡)的前幾名的結(jié)果進行了對比,展現(xiàn)了我們的網(wǎng)絡(luò)的性能。我們還展示了兩個不同任務(wù)的分割結(jié)果,包括細胞膜和細胞核分割以及細胞形態(tài)的統(tǒng)計分析。
論文鏈接:
https://arxiv.org/ftp/arxiv/papers/1612/1612.05360.pdf
語義分割必讀算法
01
期刊日期:
CVPR2015,SegNet
論文名稱:
Segnet: A deep convolutional encoder-decoder architecture for image segmentation
摘要:
SegNet 有三個部分構(gòu)成:一個 encoder network,一個對應(yīng)的 decoder network,最后一個像素級別的分類層
本文最大的亮點在:在 encoder 階段我們做 max-pooling時,我們將 pooling indices 記錄下來,在decoder upsamples 使用這些 pooling indices 得到稀疏的 upsampled maps,再用 trainable filters 進行卷積得到 dense feature maps。
和 DeconvNet 類似。
論文鏈接:
https://arxiv.org/pdf/1511.00561.pdf
02
期刊日期:
ICCV 2015,DeconvNet
論文名稱:
Learning deconvolution network for semantic segmentation
摘要:
1. 提出新的語義分割算法:深度反卷積網(wǎng)絡(luò);
2. 在VGG-16卷積層上學(xué)習(xí)網(wǎng)絡(luò);
3. 反卷積組成:deconvolution and unpooling layers,識別逐像素的類別標(biāo)簽,并預(yù)測分割mask;
4. 將object proposal(edge box)送入訓(xùn)練后的網(wǎng)絡(luò),然后整幅圖像是這些proposal的分割結(jié)果的組合,這樣就可以解決物體太大或者太小所帶來的分割問題;
5. deep deconvolution network 和候選區(qū)域級別的預(yù)測(proposal-wise predictio),改進了現(xiàn)存的基于FCN的方法.
6. 我們的算法能識別精細的結(jié)構(gòu)以及不同尺度大小的目標(biāo)
論文鏈接:
https://arxiv.org/pdf/1505.04366.pdf
帶孔卷積,大有作為
01
期刊日期:
ICLR 2015,DeepLab
論文名稱:
DeepLab V1: Semantic Image Segmentation with Deep Convolutional Nets and Fully Connected CRFs
摘要:
CRF簡單來說,能做到的就是在決定一個位置的像素值時(在這個paper里是label),會考慮周圍鄰居的像素值(label),這樣能抹除一些噪音。但是通過CNN得到的feature map在一定程度上已經(jīng)足夠平滑了,所以short range的CRF沒什么意義。于是作者采用了fully connected CRF,這樣考慮的就是全局的信息了。
論文鏈接:
https://arxiv.org/pdf/1412.7062.pdf
02
期刊日期:
TPAMI 2017
論文名稱:
V2: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs
摘要:
提出并強調(diào)洞卷積(atrous convolution)的作用與實際應(yīng)用操作,Atrous convolution可以精確地控制在深度卷積神經(jīng)網(wǎng)絡(luò)中計算特征響應(yīng)的分辨率,它還允許在不增加參數(shù)數(shù)量或計算量的情況下,有效地擴大過濾器的視野,以結(jié)合更多的上下文信息。
論文鏈接:
https://export.arxiv.org/pdf/1606.00915
03
期刊日期:
ECCV 2018
論文名稱:
V3: Rethinking Atrous Convolution for Semantic Image Segmentation
摘要:
DeepLabv3進一步探討空洞卷積,這是一個在語義分割任務(wù)中:可以調(diào)整濾波器視野、控制卷積神經(jīng)網(wǎng)絡(luò)計算的特征響應(yīng)分辨率的強大工具。為了解決多尺度下的目標(biāo)分割問題,我們設(shè)計了空洞卷積級聯(lián)或不同采樣率空洞卷積并行架構(gòu)。此外,我們強調(diào)了ASPP(Atrous Spatial Pyramid Pooling)模塊,該模塊可以在獲取多個尺度上卷積特征,進一步提升性能。同時,我們分享了實施細節(jié)和訓(xùn)練方法,此次提出的DeepLabv3相比先前的版本有顯著的效果提升,在PASCAL VOC 2012上獲得了先進的性能。
論文鏈接:
https://arxiv.org/pdf/1706.05587.pdf
04
期刊日期:
ECCV 2018
論文名稱:
V4: Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation
摘要:
空間金字塔池模塊或編碼 - 解碼器結(jié)構(gòu)用于深度神經(jīng)網(wǎng)絡(luò)中解決語義分割任務(wù)。
前一種網(wǎng)絡(luò)能夠通過利用多個速率和多個有效視場的過濾器或池化操作探測輸入特征來編碼多尺度上下文信息,而后一種網(wǎng)絡(luò)可以通過逐漸恢復(fù)空間信息來捕獲更清晰的對象邊界。
在這項工作中,我們建議結(jié)合兩種方法的優(yōu)點。具體來說,我們提出的模型DeepLabv3 +通過添加一個簡單而有效的解碼器模塊來擴展DeepLabv3,以優(yōu)化分割結(jié)果,尤其是沿著對象邊界。我們進一步探索Xception模型并將深度可分離卷積應(yīng)用于Atrous Spatial Pyramid Pooling和解碼器模塊,從而產(chǎn)生更快更強的編碼器-解碼器網(wǎng)絡(luò)。
我們證明了所提出的模型在PASCAL VOC 2012語義圖像分割數(shù)據(jù)集上的有效性,并且在沒有任何后處理的情況下在測試集上實現(xiàn)了89%的性能。我們的論文附有Tensorflow中提出的模型的公開參考實現(xiàn)。
論文鏈接:
https://arxiv.org/pdf/1802.02611.pdf
開拓語義分割新思想
01
期刊日期:
CVPR 2017,GCN
論文名稱:
Large Kernel Matters--Improve Semantic Segmentation by Global Convolutional Network
摘要:
文章認(rèn)為,classification和localization之間是有沖突的,我們平時所用的卷積分割網(wǎng)絡(luò),在提高分割效果的同時,削弱了分類的能力。文中認(rèn)為通過設(shè)置大的感受野可以獲得featuremap與pixel score之間的densely connections。
論文鏈接:
https://arxiv.org/pdf/1703.02719.pdf
宏觀角度看待語義分割
01
期刊日期:
ECCV 2018,ExFuse
論文名稱:
ExFuse: Enhancing Feature Fusion for Semantic Segmentation
摘要:
文中提到說目前語義分割的框架,大多是FCN的框架,使用encode得到將語義信息融合到feature map中,然后再使用decode通過feature map得到分割結(jié)果,一般來說encoder都是使用pre-trained的分割網(wǎng)絡(luò)進行transfer過來的,但是呢,雖然這樣encoder可以得到更豐富的語義信息,但是損失了分辨率,對于恢復(fù)到原本分辨率分割圖來說帶來了困難,因此U-net被提出來解決這個問題,使用skip connection將hight-level low-resolution from top layers和low-level high-resolution from bottom layers的特征融合起來。
論文鏈接:
https://arxiv.org/pdf/1804.03821.pdf
02
期刊日期:
CVPR 2018
論文名稱:
Learning a discriminative feature network for semantic segmentation
摘要:
創(chuàng)新點就是特征區(qū)分網(wǎng)絡(luò)discriminative feature network,本別叫做平滑網(wǎng)絡(luò)Smooth Network以及邊界網(wǎng)絡(luò)Border Network。
這兩個網(wǎng)絡(luò)可以處理類內(nèi)一致性以及類間區(qū)分性。最終。形成了encoder-decoder網(wǎng)絡(luò)結(jié)構(gòu),美其名曰Discriminative Feature Network
論文鏈接:
https://arxiv.org/pdf/1804.09337.pdf
免責(zé)聲明:所載內(nèi)容來源互聯(lián)網(wǎng),僅供參考(如有錯漏可評論說明)。轉(zhuǎn)載稿件版權(quán)歸原作者和機構(gòu)所有,如有侵權(quán),請聯(lián)系我們刪除。
