最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

CVPR'21 Talk | 阿德萊德大學(xué) V3A Lab

2021-06-16 19:14 作者:TechBeat人工智能社區(qū)  | 我要投稿


?由將門-TechBeat人工智能社區(qū)所主辦的CVPR 2021 群星閃耀·云際會(huì)將攜手51位分享嘉賓,10場(chǎng)論文解讀Talk,5天10場(chǎng)在線交流活動(dòng),云端實(shí)時(shí)開講,讓你建立真正屬于自己的能量級(jí)學(xué)術(shù)網(wǎng)絡(luò),同時(shí)一次性解鎖學(xué)術(shù)的101種姿勢(shì)。

?北京時(shí)間6月17日(周四)晚8點(diǎn),第場(chǎng)——阿德萊德大學(xué) V3A Lab的論文解讀Talk已經(jīng)準(zhǔn)時(shí)在TechBeat人工智能社區(qū)開播!團(tuán)隊(duì)負(fù)責(zé)人澳大利亞阿德萊德大學(xué)助理教授,博士生導(dǎo)師吳琦老師其學(xué)生鄧超睿、洪一聰、高晨分享了他們?cè)贑VPR 2021的工作。

? 點(diǎn)擊https://datayi.cn/w/5RpaJv2P】,免費(fèi)觀看完整Talk~


Talk·信息

分享人:阿德萊德大學(xué) V3A Lab

時(shí)間:北京時(shí)間?6月17日 (周四) 20:00

地點(diǎn):TechBeat人工智能社區(qū)

http://www.techbeat.net/

??點(diǎn)擊https://datayi.cn/w/5RpaJv2P】,免費(fèi)觀看完整Talk~



直播交流活動(dòng)·報(bào)名通道


團(tuán)隊(duì)介紹

阿德萊德大學(xué) V3A Lab

??人工智能在我們生活的方方面面起到了重要的作用,但要?jiǎng)?chuàng)造出與人類水平相當(dāng)?shù)娜斯ぶ悄?,還有很長(zhǎng)的路要走。最大的挑戰(zhàn)之一是人類如何與人工智能有效溝通,人工智能如何在口頭上和行動(dòng)上進(jìn)行有效回復(fù)。為此,我們的V3A Lab致力于研究基于視覺輸入并能完成一系列行為動(dòng)作的AI agent。V3A Lab主要從事四個(gè)與人類能力相對(duì)應(yīng)的研究主題:視覺,問,答與行為動(dòng)作,其中視覺用來接收來自環(huán)境的信息,問答是人類最基本的交流單元,而行動(dòng)能力可以映射出人類的動(dòng)作和操作能力。這些研究主題涵蓋了圖像字幕、視覺問答、指代表達(dá)和視覺語言導(dǎo)航等任務(wù)和應(yīng)用。

??實(shí)驗(yàn)室長(zhǎng)期招收優(yōu)秀博士生,博士后(視覺與語言方向)。

簡(jiǎn)歷可發(fā)送至:qi.wu01@adelaide.edu.au

??更多信息請(qǐng)見實(shí)驗(yàn)室主頁:https://v3alab.github.io/


吳琦

澳大利亞阿德萊德大學(xué)助理教授,博士生導(dǎo)師

吳琦,澳大利亞阿德萊德大學(xué)助理教授,博士生導(dǎo)師,澳大利亞青年學(xué)者基金獲得者 (Australian Research Council DECRA Fellow),澳大利亞機(jī)器人視覺研究中心(ACRV)vision-language課題組組長(zhǎng),澳大利亞科學(xué)院羅素獎(jiǎng)獲得者。吳琦博士于2015年在英國巴斯大學(xué)獲得博士學(xué)位,致力于計(jì)算機(jī)視覺領(lǐng)域研究,尤其關(guān)注于計(jì)算機(jī)視覺-自然語言相關(guān)領(lǐng)域的研究。吳琦博士在CVPR,ICCV,ECCV, ?AAAI, IJCAI, TPAMI等多個(gè)頂級(jí)國際會(huì)議和期刊發(fā)表論文六十余篇,吳琦博士亦擔(dān)任TPAMI,IJCV,TIP,CVPR,NIPS,ACL等頂級(jí)學(xué)術(shù)期刊會(huì)議審稿人。

個(gè)人主頁:http://qi-wu.me/

自頂而下的密集型視頻描述

本文提出了自頂向下的密集型視頻描述方法(SGR)。給定一個(gè)視頻,我們首先為其生成一個(gè)包含多句連貫描述的段落,對(duì)于段落中的每句描述,我們接著將其定位到視頻中的片段上,從而得到連貫的密集型視頻描述。通過這種方式,SGR的所產(chǎn)生的事件候選片段可以無縫銜接成一個(gè)完整的故事,保證了密集型描述的連貫性且減少了冗余。為了進(jìn)一步增加視頻片段的描述細(xì)節(jié),我們?cè)O(shè)計(jì)了描述提升模塊,以初步得到的密集型視頻描述和視頻片段為基準(zhǔn),并提出專用于描述質(zhì)量提升的強(qiáng)化學(xué)習(xí)策略,來生成細(xì)節(jié)更豐富的密集型視頻描述。

論文鏈接:https://openaccess.thecvf.com/content/CVPR2021/papers/Deng_Sketch_Ground_and_Refine_Top-Down_Dense_Video_Captioning_CVPR_2021_paper.pdf

鄧超睿 |?阿德萊德大學(xué)在讀博士生

鄧超睿,阿德萊德博士一年級(jí)在讀,導(dǎo)師為吳琦老師,目前對(duì)視頻/圖像理解,多模態(tài)數(shù)據(jù)處理感興趣,在計(jì)算機(jī)視覺頂級(jí)會(huì)議/期刊 (CVPR, ECCV,TPAMI)上發(fā)表共4篇一作文章。華南理工大學(xué)碩士。

個(gè)人主頁:https://dblp.uni-trier.de/pid/218/7471.html


用于視覺與語言導(dǎo)航的循環(huán)性BERT模型

本文提出了針對(duì)于視覺與語言導(dǎo)航任務(wù)(VLN)的循環(huán)性BERT模型 (Recurrent VLN-BERT)。該模型在原本Transformer結(jié)構(gòu)的基礎(chǔ)上引入了循環(huán)(recurrence),以處理部分可觀察的(partially observable)信息輸入,并讓單一Transformer網(wǎng)絡(luò)得以實(shí)現(xiàn)多功能、同時(shí)解決多任務(wù)的效果。此方法在VLN任務(wù)上達(dá)到了新的SoTA,同時(shí)由于其簡(jiǎn)潔與高效,它能適用于多種基于Transformer的網(wǎng)絡(luò)并解決其他任務(wù)。

論文鏈接:https://arxiv.org/abs/2011.13922

項(xiàng)目鏈接:https://github.com/YicongHong/Recurrent-VLN-BERT

洪一聰?|?大利亞國立大學(xué)在讀博士生

洪一聰,澳大利亞國立大學(xué)(ANU)工程與計(jì)算機(jī)科學(xué)學(xué)院(CECS)的三年級(jí)博士生,同時(shí)也是澳大利亞機(jī)器人視覺研究中心(ACRV)和V3A Lab的成員,導(dǎo)師為Prof. Stephen Gould 與 Qi Wu (吳琦),此前于ANU獲得機(jī)電一體化一等榮譽(yù)學(xué)士學(xué)位?,F(xiàn)專注于視覺與語言導(dǎo)航(Vision-and-Language Navigation)相關(guān)問題的研究。在EMNLP,NeurIPS和CVPR會(huì)議上均有一作論文發(fā)表。

個(gè)人主頁:http://www.yiconghong.me/


基于知識(shí)推理的遠(yuǎn)程指代表達(dá)方法

遠(yuǎn)程指代表達(dá)任務(wù) (REVERIE),不同于先前VLN任務(wù) (基于R2R數(shù)據(jù)集),其語言指令簡(jiǎn)短抽象 (high-level),更需要agent具備prior knowledge和跨模態(tài)推理能力來完成該任務(wù)。因此,本工作主要研究了如何有效利用common-sense knowledge去解決REVERIE任務(wù),所提出的“跨模態(tài)知識(shí)推理模型”在該數(shù)據(jù)集上取得了很好的效果,揭示了prior knowledge在相關(guān)問題中的重要意義。

論文鏈接:https://openaccess.thecvf.com/content/CVPR2021/papers/Gao_Room-and-Object_Aware_Knowledge_Reasoning_for_Remote_Embodied_Referring_Expression_CVPR_2021_paper.pdf

項(xiàng)目鏈接:https://github.com/alloldman/CKR

高晨 |?北京航空航天大學(xué)在讀博士生高晨,北京航空航天大學(xué)博士一年級(jí)在讀,導(dǎo)師為劉偲副教授。研究興趣主要包括計(jì)算機(jī)視覺,跨媒體智能,圖像生成與編輯。在T-PAMI、CVPR、ACM MM等期刊和會(huì)議上發(fā)表多篇學(xué)術(shù)論文。

個(gè)人主頁:https://chengaopro.github.io/


??點(diǎn)擊https://datayi.cn/w/5RpaJv2P】,免費(fèi)觀看完整Talk~


關(guān)于TechBeat人工智能社區(qū)

TechBeat(www.techbeat.net)是一個(gè)薈聚全球華人AI精英的成長(zhǎng)社區(qū)。我們希望為AI人才打造更專業(yè)的服務(wù)和體驗(yàn),加速并陪伴其學(xué)習(xí)成長(zhǎng)。期待這里可以成為你學(xué)習(xí)AI前沿知識(shí)的高地,分享自己最新工作的沃土,在AI進(jìn)階之路上的升級(jí)打怪的根據(jù)地!

更多詳細(xì)介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ?

CVPR'21 Talk | 阿德萊德大學(xué) V3A Lab的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國家法律
铜梁县| 治多县| 长岭县| 任丘市| 西藏| 嘉义市| 库尔勒市| 融水| 瓮安县| 江陵县| 赫章县| 越西县| 宜都市| 翁牛特旗| 申扎县| 嘉鱼县| 象州县| 如东县| 鞍山市| 同德县| 宝丰县| 武清区| 恩施市| 英超| 泌阳县| 晋州市| 丽水市| 潼关县| 泰州市| 富平县| 青海省| 新昌县| 平昌县| 法库县| 枝江市| 威海市| 甘孜县| 喀喇| 长兴县| 古丈县| 蓬安县|