CVPR'21 Talk | 香港中文大學(xué)(深圳)GAP-Lab

?由將門-TechBeat人工智能社區(qū)所主辦的CVPR 2021 群星閃耀·云際會(huì)將攜手51位分享嘉賓,10場論文解讀Talk,5天10場在線交流活動(dòng),云端實(shí)時(shí)開講,讓你建立真正屬于自己的能量級(jí)學(xué)術(shù)網(wǎng)絡(luò),同時(shí)一次性解鎖學(xué)術(shù)的101種姿勢。
?北京時(shí)間6月16日(周三)晚8點(diǎn),第③場——香港中文大學(xué)(深圳)GAP-Lab的論文解讀Talk已經(jīng)準(zhǔn)時(shí)在TechBeat人工智能社區(qū)開播!團(tuán)隊(duì)負(fù)責(zé)人香港中文大學(xué)(深圳)助理教授韓曉光老師攜其學(xué)生聶隱愚、邱宇達(dá)、劉浩霖分享了他們在CVPR 2021的工作。
? 點(diǎn)擊【https://datayi.cn/w/j9yBJJyR】,免費(fèi)收看talk~
Talk·信息
分享人:香港中文大學(xué)(深圳)GAP-Lab
時(shí)間:北京時(shí)間?6月16日 (周三) 20:00
地點(diǎn):TechBeat人工智能社區(qū)
http://www.techbeat.net/
??點(diǎn)擊【https://datayi.cn/w/j9yBJJyR】,免費(fèi)收看talk~
直播交流活動(dòng)·報(bào)名通道

團(tuán)隊(duì)介紹
香港中文大學(xué)(深圳)GAP-Lab
??團(tuán)隊(duì)成立于2018年,由香港中文大學(xué)(深圳)助理教授韓曉光帶領(lǐng)的GAP為Generation and Analysis of Pixels, Points and Polygons, 團(tuán)隊(duì)主要圍繞著圖像、視頻和三維內(nèi)容的分析和生成開展研究。研究方向包括計(jì)算機(jī)視覺和計(jì)算機(jī)圖形學(xué),近年來主要重心在室內(nèi)場景和數(shù)字人的理解和三維重建方向以及幾何深度學(xué)習(xí)的理論和應(yīng)用研究。
??團(tuán)隊(duì)常年招收優(yōu)秀的博士后、博士、碩士等以及工程師,也希望和產(chǎn)業(yè)界建立緊密合作關(guān)系。
??詳情請(qǐng)見:
https://mypage.cuhk.edu.cn/academics/hanxiaoguang/
韓曉光
香港中文大學(xué)(深圳)助理教授
韓曉光博士,現(xiàn)任香港中文大學(xué)(深圳)助理教授,2009年本科于南京航空航天大學(xué)畢業(yè),2011年獲得浙江大學(xué)應(yīng)用數(shù)學(xué)系碩士學(xué)位,2011年至2013年于香港城市大學(xué)創(chuàng)意媒體學(xué)院任研究助理,之后于2017年獲得香港大學(xué)計(jì)算機(jī)科學(xué)專業(yè)博士學(xué)位。其研究方向包括計(jì)算機(jī)視覺、計(jì)算機(jī)圖形學(xué)、虛擬現(xiàn)實(shí)和醫(yī)療圖像處理等,在該方向著名國際期刊和會(huì)議發(fā)表論文40余篇,包括頂級(jí)會(huì)議和期刊SIGGRAPH, CVPR, ICCV, ECCV, NeurIPS, IEEE TPAMI, ACM TOG 等。他的工作曾獲得CCF 圖形開源數(shù)據(jù)集獎(jiǎng),計(jì)算機(jī)圖形學(xué)頂級(jí)會(huì)議Siggraph Asia 2013新興技術(shù)最佳演示獎(jiǎng),2019年和2020年連續(xù)兩年計(jì)算機(jī)視覺頂級(jí)會(huì)議CVPR最佳論文列表(入選率分別為0.8%和0.4%),他的團(tuán)隊(duì)于2018年11月獲得IEEE ICDM 全球氣象挑戰(zhàn)賽冠軍(參賽隊(duì)伍1700多)。
個(gè)人主頁:https://mypage.cuhk.edu.cn/academics/hanxiaoguang/
①
RfD-Net:?通過語義實(shí)例重建從點(diǎn)云中理解三維場景

從點(diǎn)云中理解三維場景的語義與幾何是目前具有挑戰(zhàn)性的任務(wù)。以往工作通常將點(diǎn)云轉(zhuǎn)化為規(guī)則的網(wǎng)格并基于三維卷積來進(jìn)行場景理解。其通常需要消耗巨大的算力以導(dǎo)致幾何分辨率不高。本文提出一種直接基于稀疏點(diǎn)云的網(wǎng)絡(luò)框架,核心為“先檢測再重建”實(shí)現(xiàn)語義實(shí)例級(jí)別的場景理解。
論文鏈接:https://arxiv.org/abs/2011.14744
代碼鏈接:https://github.com/yinyunie/RfDNet
聶隱愚 |?慕尼黑工業(yè)大學(xué)博士后
聶隱愚,目前為慕尼黑工業(yè)大學(xué)Visual Computing Group博士后。此前于英國計(jì)算機(jī)動(dòng)畫中心,伯恩茅斯大學(xué)獲得博士學(xué)位。博士期間曾為香港中文大學(xué)(深圳)訪問博士生。他的研究興趣主要包括三維場景/物體理解,分析與重建。目前在CVPR,NeurIPS等會(huì)議發(fā)表工作多篇。
個(gè)人主頁:https://yinyunie.github.io/
②
3DCaricShop:?應(yīng)用于夸張人臉圖像的三維數(shù)據(jù)庫及單張圖三維重建的方法

夸張人臉圖像是一種廣泛應(yīng)用的藝術(shù)表達(dá)形式。它通過對(duì)人臉五官的特征進(jìn)行夸張?zhí)幚恚黾幼髌返挠哪蛑S刺效果,使圖像能更好地被觀眾識(shí)別并記憶。然而從夸張圖像中重建出對(duì)應(yīng)的三維人臉是一個(gè)具有挑戰(zhàn)性的任務(wù),其主要困難在于缺少相適應(yīng)的三維數(shù)據(jù)集。我們在這個(gè)工作中提出了一個(gè)大規(guī)模的夸張人臉數(shù)據(jù)集,包含風(fēng)格多樣的二維圖像及相對(duì)應(yīng)的人工建模三維人臉。我們同時(shí)提出了一個(gè)單張圖像重建三維人臉的算法,來驗(yàn)證數(shù)據(jù)庫的有效。算法結(jié)合了隱式三維重建和參數(shù)化模型兩者的優(yōu)勢,合理地重建出了圖像中的人臉模型。
論文鏈接:https://arxiv.org/abs/2103.08204
代碼鏈接:https://qiuyuda.github.io/3DCaricShop/
邱宇達(dá) |?香港中文大學(xué)(深圳)博士生邱宇達(dá),來自于香港中文大學(xué)(深圳)的一年級(jí)博士生。目前師從韓曉光老師,研究課題為人臉三維的理解與重建。
個(gè)人主頁:https://github.com/qiuyuda
③
一個(gè)應(yīng)用于RGBD圖片,自上而下的三維文本視覺定位方法??

三維文本視覺定位(3D visual grounding)任務(wù)是目前計(jì)算機(jī)視覺領(lǐng)域中十分具有挑戰(zhàn)性的任務(wù)。先前的方法使用經(jīng)過重建處理的完整場景數(shù)據(jù)作為輸入,再加上用戶指定的一句描述目標(biāo)物體的語句,最終輸出一個(gè)三維bounding box來定位目標(biāo)物體??紤]到現(xiàn)實(shí)環(huán)境可能會(huì)發(fā)生動(dòng)態(tài)調(diào)整,且完整的場景不易得到,我們把該任務(wù)拓展到僅包含不完整場景信息的單視角RGBD圖片上,提出了一個(gè)基于RGBD圖片的文本三維視覺定位任務(wù)(3D visual grounding)。由于三維幾何信息的部分缺失,在RGBD圖片上進(jìn)行三維視覺定位是更有挑戰(zhàn)性的任務(wù)。我們提出了一個(gè)自下而上的方法,來解決這一任務(wù)所帶來的挑戰(zhàn)。
論文鏈接:https://arxiv.org/abs/2103.07894
代碼鏈接:https://unclemedm.github.io/Refer-it-in-RGBD
劉浩霖 |?香港中文大學(xué)(深圳) 博士生
劉浩霖,香港中文大學(xué)(深圳)的二年級(jí)博士生。目前師從韓曉光老師,研究課題為室內(nèi)場景的理解與重建。
個(gè)人主頁:https://github.com/UncleMEDM
??點(diǎn)擊【https://datayi.cn/w/j9yBJJyR】,免費(fèi)收看talk~
關(guān)于TechBeat人工智能社區(qū)
TechBeat(www.techbeat.net)是一個(gè)薈聚全球華人AI精英的成長社區(qū)。我們希望為AI人才打造更專業(yè)的服務(wù)和體驗(yàn),加速并陪伴其學(xué)習(xí)成長。期待這里可以成為你學(xué)習(xí)AI前沿知識(shí)的高地,分享自己最新工作的沃土,在AI進(jìn)階之路上的升級(jí)打怪的根據(jù)地!
更多詳細(xì)介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ??