最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

【盤(pán)點(diǎn)】CVPR二十年,影響力最大的10篇論文!

2021-04-13 14:11 作者:深藍(lán)學(xué)院  | 我要投稿

今天,我們將對(duì)計(jì)算機(jī)視覺(jué)領(lǐng)域三大頂會(huì)之一CVPR在近二十年來(lái)中產(chǎn)生的優(yōu)秀論文進(jìn)行一個(gè)全面的盤(pán)點(diǎn)與總結(jié)。

CVPR是計(jì)算機(jī)視覺(jué)領(lǐng)域三大頂會(huì)中唯一一個(gè)年度學(xué)術(shù)會(huì)議。在快速更新迭代的計(jì)算機(jī)學(xué)科中,CVPR成為了計(jì)算機(jī)視覺(jué)領(lǐng)域的“頂級(jí)流量”。而在過(guò)去的這些年間,CVPR也有著許多的變化。在十多年前,CVPR不過(guò)1500人的參會(huì)規(guī)模,到了2019年參會(huì)人數(shù)已經(jīng)超過(guò)了6500人,投稿數(shù)量也年年增長(zhǎng)。

雖然CVPR每年都會(huì)評(píng)選出最佳論文,但我們今天將從另一個(gè)角度來(lái)評(píng)選CVPR這二十年來(lái)的TOP10。即以Web of Science上顯示的論文的引用量作為論文影響力的參考,排列出近二十年來(lái)影響力最大的十篇論文。接下來(lái)我們將依次進(jìn)行介紹。

TOP10

Rethinking the Inception Architecture for Computer Vision

CVPR 2016

作者:Christian Szegedy,Vincent Vanhoucke,Sergey Ioffe,Jon Shlens,Zbigniew Wojna

機(jī)構(gòu):Google,倫敦大學(xué)

被引頻次:4751

這篇論文又被稱為Inception-v3,是GoogLeNet(Inception-v1)的延伸。GoogLeNet首次出現(xiàn)于2014年ILSVRC 比賽,并在當(dāng)年的比賽中獲得了冠軍。Inception-v1的參數(shù)量遠(yuǎn)小于同期VGGNet,而性能卻與之基本持平。相較于Inception-v1,Inception-v3做出的主要改進(jìn)則是將卷積進(jìn)行非對(duì)稱拆分,以顯著降低參數(shù)量,同時(shí)使得空間特征更為豐富。

TOP9

Densely Connected Convolutional Networks

CVPR 2017

作者:Gao Huang,Zhuang Liu,Laurens van der Maaten,Kilian Q. Weinberger

機(jī)構(gòu):康奈爾大學(xué),清華大學(xué),F(xiàn)acebook AI Research

被引頻次:5181

DenseNet也是CVPR2017的最佳論文之一。在當(dāng)時(shí)的神經(jīng)網(wǎng)絡(luò)模型都遇到一個(gè)問(wèn)題:隨著網(wǎng)路層數(shù)的加深,訓(xùn)練過(guò)程中的前傳信號(hào)和梯度信號(hào)在經(jīng)過(guò)很多層之后可能會(huì)逐漸消失。而DenseNet的核心思想解決了這一問(wèn)題。它對(duì)前每一層都加一個(gè)單獨(dú)的 shortcut,使得任意兩層網(wǎng)絡(luò)都可以直接“溝通”。

而DenseNet的不足之處在于它的內(nèi)存占用十分龐大。但瑕不掩瑜,DenseNet以其極具創(chuàng)新性的思路,不僅顯著減輕了深層網(wǎng)絡(luò)在訓(xùn)練過(guò)程中梯度消散而難以優(yōu)化的問(wèn)題,同時(shí)也取得了非常好的性能。

TOP8

You Only Look Once: Unified, Real-Time Object Detection

CVPR 2016

作者:Joseph Redmon,Santosh Divvala,Ross Girshick,Ali Farhadiq

機(jī)構(gòu):華盛頓大學(xué),Allen Institute for AI,F(xiàn)acebook AI Research

被引頻次:5295

這一篇論文就是在目標(biāo)檢測(cè)領(lǐng)域大名鼎鼎的YOLO。其最新的版本已經(jīng)更新到了YOLOv5,且每一代的發(fā)布都能在行業(yè)內(nèi)卷齊新的熱潮。

用YOLO的英文直譯解釋這一方法,就是只需要瀏覽一次就能識(shí)別出圖中的物體的類別和位置。展開(kāi)來(lái)說(shuō),YOLO的核心思想就是將目標(biāo)檢測(cè)轉(zhuǎn)化為回歸問(wèn)題求解,并基于一個(gè)單獨(dú)的端到端網(wǎng)絡(luò),完成從原始圖像的輸入到物體位置和類別的輸出。這使得網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,且極大提升了檢測(cè)速度。由于網(wǎng)絡(luò)沒(méi)有分支,所以訓(xùn)練也只需要一次即可完成。之后的很多檢測(cè)算法都借鑒了這一思路。

TOP7

Rich feature hierarchies for accurate object detection and semantic segmentation

CVPR 2014

作者:Ross Girshick,Jeff Donahue,Trevor Darrell,Jitendra Malik

機(jī)構(gòu):加利福尼亞大學(xué)伯克利分校

被引頻次:6876

這篇文章的排名在YOLO之前,既合理又巧妙。因?yàn)樵赮OLO之前,目標(biāo)檢測(cè)領(lǐng)域可以說(shuō)是RCNN的世界。RCNN是將CNN引入目標(biāo)檢測(cè)的開(kāi)山之作,它改變了目標(biāo)檢測(cè)領(lǐng)域的主要研究思路。緊隨其后的系列文章,如Fast RCNN和Faster RCNN等,都代表了該領(lǐng)域當(dāng)時(shí)的最高水準(zhǔn)。

在RCNN前經(jīng)典的目標(biāo)檢測(cè)算法是使用滑動(dòng)窗法依次判斷所有可能的區(qū)域,而RCNN則采用Selective Search方法預(yù)先提取一系列較可能是物體的候選區(qū)域,之后僅在這些候選區(qū)域上提取特征,這使得檢測(cè)的速度大大提升。

TOP6

Rapid object detection using a boosted cascade of simple features

CVPR 2001

作者:Paul Viola,Michael Jones

機(jī)構(gòu):三菱電氣實(shí)驗(yàn)室 ,康柏劍橋研究實(shí)驗(yàn)室

被引頻次:7033

這篇論文是本次盤(pán)點(diǎn)中最先發(fā)表的一篇,比其他九篇文章都早了十年左右,它傳統(tǒng)人臉檢測(cè)中具有里程碑意義,因而本文提出的思想聚焦于傳統(tǒng)的目標(biāo)檢測(cè)。

這篇論文主要解決了三個(gè)問(wèn)題:一是減少了計(jì)算特征的時(shí)間,二是構(gòu)建了簡(jiǎn)單又很有效的單分支決策樹(shù)分類器,最后是從簡(jiǎn)單到復(fù)雜把多個(gè)分類器級(jí)聯(lián),對(duì)可能包含人臉的區(qū)域進(jìn)行重點(diǎn)檢測(cè),從而顯著提升了檢測(cè)速度。

TOP5

Going Deeper with Convolutions

CVPR 2015

作者:Christian Szegedy,Dragomir Anguelov, Dumitru Erhan,Vincent Vanhoucke,Yangqing Jia,Pierre Sermanet,Wei Liu,Scott Reed,Andrew Rabinovich

機(jī)構(gòu):Google,北卡羅來(lái)納大學(xué),密歇根大學(xué)

發(fā)布時(shí)間:2015年

被引頻次:7269

可能大家已經(jīng)發(fā)現(xiàn)了亮點(diǎn),這篇論文的系列工作在前面就出現(xiàn)過(guò)。這篇論文就是開(kāi)辟Inception家族,并在CNN分類器發(fā)展史上留下濃墨重彩的一筆的GoogLeNet。

在 Inception 出現(xiàn)之前,大部分流行 CNN 是將卷積層不斷堆疊,讓網(wǎng)絡(luò)越來(lái)越深來(lái)得到更好的性能。而GoogLeNet 最大的特點(diǎn)就是使用 Inception 模塊,并設(shè)計(jì)一種具有優(yōu)良局部拓?fù)浣Y(jié)構(gòu)的網(wǎng)絡(luò),對(duì)輸入圖像并行地執(zhí)行多個(gè)卷積運(yùn)算或池化操作,將所有輸出結(jié)果拼接為一個(gè)非常深的特征圖。通過(guò)這種方式,GoogLeNet取得了非常驚艷的效果。

TOP4

ImageNet: A Large-Scale Hierarchical Image Database

CVPR 2019

作者:Jia Deng,Wei Dong,Richard Socher,Li-Jia Li,Kai Li,Li Fei-Fei

機(jī)構(gòu):普林斯頓大學(xué)

發(fā)布時(shí)間:2009年

被引頻次:8222

ImageNet是AI女神李飛飛團(tuán)隊(duì)構(gòu)建的計(jì)算機(jī)視覺(jué)領(lǐng)域非常著名的海量的帶標(biāo)注圖像數(shù)據(jù)集。它在圖像分類、目標(biāo)分割和目標(biāo)檢測(cè)中都有著無(wú)法撼動(dòng)的地位。ImageNet從 2007 年開(kāi)始到 2009 年完成,有超過(guò) 1500 萬(wàn)張圖片。

可以毫不夸張的說(shuō),ImageNet 是圖像處理算法的試金石。另外,從 2010 年起,每年 ImageNet 官方會(huì)舉辦挑戰(zhàn)賽。Hinton團(tuán)隊(duì)提出的AlexNet也是在2012年的ImageNet挑戰(zhàn)賽上一舉成名,自此深度學(xué)習(xí)的熱潮被點(diǎn)燃。

TOP3

Fully Convolutional Networks for Semantic Segmentation

CVPR 2015

作者:Jonathan Long,Evan Shelhamer,Trevor Darrell

發(fā)布時(shí)間:2015年

被引頻次:9027

FCN在我們之前盤(pán)點(diǎn)的圖像分割TOP10中就出現(xiàn)過(guò),并高居第一位。作為語(yǔ)義分割的開(kāi)山之作,無(wú)論是圖像分割TOP1,還是CVPRTOP3,F(xiàn)CN都是當(dāng)之無(wú)愧的。FCN所提出的全卷積網(wǎng)絡(luò)的概念,開(kāi)創(chuàng)了用FCN做實(shí)例和像素級(jí)別理解系列方法的先河。后續(xù)非常多的方法都受到了FCN的思路啟發(fā)。FCN的提出為目標(biāo)識(shí)別、檢測(cè)與分割也都做出了巨大的貢獻(xiàn)。

TOP2

Histograms of oriented gradients for human detection

CVPR 2005

作者:Navneet Dalal,Bill Triggs

被引頻次:13389

這篇論文所提出的方法簡(jiǎn)稱HOG,是一種是非常經(jīng)典的圖像特征提取方法,在行人識(shí)別領(lǐng)域被應(yīng)用得尤為多。雖然文章已經(jīng)發(fā)表了十五年,但仍然常常被人們用于最新工作的思路參考。HOG將圖像分成小的連通區(qū)域,將它稱為細(xì)胞單元,然后采集細(xì)胞單元中各像素點(diǎn)的梯度的或邊緣的方向直方圖,把這些直方圖組合起來(lái)就可以構(gòu)成特征描述器。

TOP1

Deep Residual Learning for Image Recognition

CVPR2016

作者:Kaiming He,Xiangyu Zhang,Shaoqing Ren,Jian Sun

被引頻次:32065

這篇論文作為第一名,的確是當(dāng)之無(wú)愧。作為CVPR2016的最佳論文,它所提出的ResNet不僅在計(jì)算機(jī)視覺(jué)領(lǐng)域,而是在深度學(xué)習(xí)領(lǐng)域中都帶來(lái)了顛覆式影響。

在當(dāng)年,ResNet橫掃 ImageNet 2015和COCO 榜單。也是從ResNet開(kāi)始,神經(jīng)網(wǎng)絡(luò)在視覺(jué)分類任務(wù)上的性能第一次超越了人類。它也讓當(dāng)時(shí)第二次獲得CVPR Best Paper的何愷明正式踏上了大神之路。

最初 ResNet 的設(shè)計(jì)是用來(lái)處理深層 CNN 結(jié)構(gòu)中梯度消失和梯度爆炸的問(wèn)題,它將輸入從卷積層的每個(gè)塊添加到輸出,讓每一層更容易學(xué)習(xí)恒等映射,并且還減少了梯度消失的問(wèn)題。而如今,殘差模塊已經(jīng)成為幾乎所有 CNN 結(jié)構(gòu)中的基本構(gòu)造

最后,我們來(lái)進(jìn)行一下簡(jiǎn)要地總結(jié)。雖然本次盤(pán)點(diǎn)的是20年內(nèi)CVPRTOP10,但是有超過(guò)半數(shù)的論文都是在近十年發(fā)表的,由此可以窺見(jiàn)深度學(xué)習(xí)在近年來(lái)的飛躍式發(fā)展。因此我們可以期待在未來(lái)的計(jì)算機(jī)視覺(jué)領(lǐng)域,一定會(huì)有更多更強(qiáng)的工作,為我們的科研與生活帶來(lái)更快更好的提升。

參考資料

[1] https://zhuanlan.zhihu.com/p/41691301
[2] https://www.zhihu.com/question/60109389/answer/203099761
[3] https://zhuanlan.zhihu.com/p/31427164
[4] https://zhuanlan.zhihu.com/p/23006190
[5] https://blog.csdn.net/weixin_37763809/article/details/88256828
[6] https://zhuanlan.zhihu.com/p/37505777
[7] https://zhuanlan.zhihu.com/p/77221549
[8] https://www.zhihu.com/question/433702668/answer/1617092684
[9] https://blog.csdn.net/zouxy09/article/details/7929348
[10] https://www.jiqizhixin.com/articles/2020-01-01

來(lái)自:極市平臺(tái)

【盤(pán)點(diǎn)】CVPR二十年,影響力最大的10篇論文!的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
枣阳市| 修武县| 海口市| 清丰县| 泰兴市| 浦城县| 深泽县| 奎屯市| 即墨市| 虹口区| 安国市| 崇左市| 克东县| 湖口县| 惠来县| 铜陵市| 淮北市| 阳城县| 文山县| 通辽市| 丁青县| 青河县| 承德市| 麻城市| 永年县| 松原市| 天门市| 霍州市| 南木林县| 周至县| 宜城市| 社旗县| 太和县| 亚东县| 宁远县| 莲花县| 大方县| 青川县| 齐齐哈尔市| 衡南县| 左贡县|