CVPR'21 Talk | 字節(jié)AI Lab Research


早上好!相信不少同學(xué)已經(jīng)從端午前的推送中了解到將門(mén)-TechBeat人工智能社區(qū)主辦的CVPR 2021 群星閃耀·云際會(huì),在端午假期后要正式與大家見(jiàn)面啦!
?北京時(shí)間6月15日(周二)晚8點(diǎn),第②場(chǎng)——字節(jié)AI Lab Research論文解讀Talk已經(jīng)準(zhǔn)時(shí)在TechBeat人工智能社區(qū)開(kāi)播!團(tuán)隊(duì)負(fù)責(zé)人字節(jié)跳動(dòng)AI Lab研究員孔濤老師攜其學(xué)生陳玉康、章如鋒、荊雅分享了他們?cè)贑VPR 2021的工作。
??點(diǎn)擊【https://datayi.cn/w/noqBJNr9】,免費(fèi)收看完整talk~
Talk·信息
分享人:字節(jié)AI Lab Research
時(shí)間:北京時(shí)間?6月15日 (周二) 20:00
地點(diǎn):TechBeat人工智能社區(qū)
http://www.techbeat.net/
??點(diǎn)擊【https://datayi.cn/w/noqBJNr9】,免費(fèi)收看完整talk~
直播交流活動(dòng)·報(bào)名通道

團(tuán)隊(duì)介紹
字節(jié)AI Lab Research
字節(jié)跳動(dòng)AI Lab Research機(jī)器人研究組由AI LAB多位研究員領(lǐng)銜,團(tuán)隊(duì)聚焦于機(jī)器人的智能感知、交互式機(jī)器人運(yùn)動(dòng)操作和機(jī)器人技能學(xué)習(xí)。團(tuán)隊(duì)一方面會(huì)聚焦于機(jī)器人的前沿硬核技術(shù)的研究探索,另外一方面也積極推動(dòng)研發(fā)算法擴(kuò)展機(jī)器人能力邊界。
長(zhǎng)期招聘機(jī)器人相關(guān)方向人才,包括但不限于2D/3D視覺(jué)感知、機(jī)器人運(yùn)動(dòng)和交互學(xué)習(xí),詳細(xì)見(jiàn)字節(jié)招聘官網(wǎng)。
孔濤
字節(jié)跳動(dòng)AI Lab研究員
孔濤,目前為字節(jié)跳動(dòng)AI Lab研究員,主要研究方向?yàn)橛?jì)算機(jī)視覺(jué)及機(jī)器人技能學(xué)習(xí)。他于2019年7月博士畢業(yè)于清華大學(xué)計(jì)算機(jī)系,導(dǎo)師孫富春教授,以第一/主要作者在CVPR、ECCV、NeurIPS等會(huì)議發(fā)表論文20余篇,其博士學(xué)位論文被提名為中國(guó)人工智能學(xué)會(huì)優(yōu)秀博士論文獎(jiǎng),獲得2016年國(guó)際機(jī)器人抓取操作競(jìng)賽冠軍等榮譽(yù)。
個(gè)人主頁(yè):http://www.taokong.org①
針對(duì)目標(biāo)檢測(cè)中尺度變化問(wèn)題
的自動(dòng)化數(shù)據(jù)增強(qiáng)方法

本文提出了一種針對(duì)目標(biāo)檢測(cè)尺度變化問(wèn)題的自動(dòng)化數(shù)據(jù)增強(qiáng)方法,該方法包括一種新的搜索空間和一種搜索過(guò)程中的估計(jì)指標(biāo)。該方法搜索得到的數(shù)據(jù)增強(qiáng)策略在各類(lèi)檢測(cè)器和不同數(shù)據(jù)集上都能帶來(lái)性能提升,并超越了傳統(tǒng)方法。此外,搜索得到的策略存在著一定的規(guī)律性,可以為以后人工數(shù)據(jù)增強(qiáng)設(shè)計(jì)提供一些幫助。
論文鏈接:
https://arxiv.org/abs/2103.17220
代碼鏈接:
https://github.com/Jia-Research-Lab/SA-AutoAug
陳玉康 |?香港中文大學(xué)在讀博士生/字節(jié)跳動(dòng)實(shí)習(xí)生陳玉康,香港中文大學(xué)博士在讀研究生,碩士畢業(yè)于中科院自動(dòng)化所,本科畢業(yè)于北京航空航天大學(xué)。主要研究神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索、目標(biāo)檢測(cè)、模型壓縮等方向。
個(gè)人主頁(yè):
https://yukangchen.com/
②
基于可學(xué)習(xí)候選框的端到端的稀疏目標(biāo)檢測(cè)器

本文提出了一種全新的徹底稀疏的目標(biāo)檢測(cè)框架,脫離經(jīng)典的錨盒、關(guān)鍵點(diǎn)等先驗(yàn)概念及極大值抑制等后處理操作,實(shí)現(xiàn)端到端的稀疏檢測(cè)。結(jié)果表明,可以取得與常見(jiàn)的精心設(shè)計(jì)的密集檢測(cè)器類(lèi)似的性能。
論文鏈接:
https://arxiv.org/pdf/2011.12450
代碼鏈接:
https://github.com/PeizeSun/SparseR-CNN
章如鋒 |?同濟(jì)大學(xué)在讀博士生/字節(jié)跳動(dòng)實(shí)習(xí)生
章如鋒,同濟(jì)大學(xué)四年級(jí)在讀博士生,研究方向主要是計(jì)算機(jī)視覺(jué)中的目標(biāo)檢測(cè)、實(shí)例分割等。曾在CVPR、NeurIPS等計(jì)算機(jī)視覺(jué)與機(jī)器學(xué)習(xí)頂會(huì)發(fā)表論文。
個(gè)人主頁(yè):
https://scholar.google.com/citations?user=THbhxeYAAAAJ&hl=zh-CN
③
一種先定位再分割的
高性能指代性分割基準(zhǔn)模型

指代性分割的目標(biāo)是根據(jù)語(yǔ)言指示分割出場(chǎng)景中的目標(biāo)物體。目前的工作通常著重于設(shè)計(jì)一種隱式的遞歸特征交互機(jī)制用于融合視覺(jué)-語(yǔ)言特征來(lái)直接生成最終的分割結(jié)果,而沒(méi)有顯式建模被指代物體的位置。為了強(qiáng)調(diào)語(yǔ)言描述的指代作用,本文將該任務(wù)解耦為先定位再分割的方案,首先通過(guò)位置建??梢燥@式獲取語(yǔ)言所指代的對(duì)象,后續(xù)的分割網(wǎng)絡(luò)則可以根據(jù)視覺(jué)環(huán)境信息來(lái)得到準(zhǔn)確的物體輪廓。在三個(gè)流行的基準(zhǔn)數(shù)據(jù)集上,該方法大幅度優(yōu)于所有以前的方法。
論文鏈接:
https://arxiv.org/abs/2103.16284
荊雅 |?中科院自動(dòng)化所在讀博士生/字節(jié)跳動(dòng)實(shí)習(xí)生
荊雅,中國(guó)科學(xué)院自動(dòng)化研究所在讀博士生,主要研究方向?yàn)榭缒B(tài)學(xué)習(xí)和行人視覺(jué)理解。在CVPR、AAAI、TIP等國(guó)際頂級(jí)會(huì)議和期刊上發(fā)表論文7篇(其中一作5篇)。本科畢業(yè)于北京航空航天大學(xué)自動(dòng)化專(zhuān)業(yè)。
個(gè)人主頁(yè):
https://jingyaa.github.io/jingya.github.io/
??點(diǎn)擊【https://datayi.cn/w/noqBJNr9】,免費(fèi)收看完整talk~
關(guān)于TechBeat人工智能社區(qū)
TechBeat(www.techbeat.net)是一個(gè)薈聚全球華人AI精英的成長(zhǎng)社區(qū)。我們希望為AI人才打造更專(zhuān)業(yè)的服務(wù)和體驗(yàn),加速并陪伴其學(xué)習(xí)成長(zhǎng)。期待這里可以成為你學(xué)習(xí)AI前沿知識(shí)的高地,分享自己最新工作的沃土,在AI進(jìn)階之路上的升級(jí)打怪的根據(jù)地!
更多詳細(xì)介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ?