最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

Talk預(yù)告 | 博士后研究員王正蔚: ACTION-Net, 一種高效、即插即用的動作識別模塊

2021-05-17 09:46 作者:TechBeat人工智能社區(qū)  | 我要投稿

本周為TechBeat人工智能社區(qū)305線上Talk,這也是CVPR?2021系列Talk第②。

北京時間5月18(周二)晚8點都柏林圣三一大學(xué)博士后研究員王正蔚的Talk將準(zhǔn)時在TechBeat人工智能社區(qū)開播!

他與大家分享的主題是: “ACTION-Net:一種高效、即插即用的動作識別模塊”,屆時將介紹有關(guān)計算機視覺、視頻動作識別、注意力機制的相關(guān)研究與近期的一些進(jìn)展和思考。


Talk·信息

主題:ACTION-Net,

一種高效、即插即用的動作識別模塊

嘉賓:都柏林圣三一大學(xué)

博士后研究員 王正蔚

時間:北京時間?5月18日 (周二) 20:00

地點:TechBeat人工智能社區(qū)

http://www.techbeat.net/


完整版怎么看?

掃描下方二維碼,或復(fù)制鏈接https://datayi.cn/w/lPQJ8Odo至瀏覽器,一鍵完成預(yù)約!上線后會在第一時間收到通知哦~

Talk·提綱

近年來,隨著越來越多的大規(guī)模視頻數(shù)據(jù)集的出現(xiàn)如Kinetics,Something-to-Someting,Jester,基于3D卷積的深度神經(jīng)網(wǎng)絡(luò)在視頻動作識別上面取得了非常好的效果如X3D,SlowFast Networks。同時,我們的應(yīng)用場景也變得越來越多元化比如視頻分類,視頻精彩時刻,人機交互。在這個工作中,我們主要側(cè)重于時序動作識別比如人機交互與VR/AR中的手勢識別。和傳統(tǒng)的動作識別相比如Kinetics(注重視頻分類),此類應(yīng)用場景主要有兩種區(qū)別:

1. 一般部署在邊緣設(shè)備上如手機,VR/AR設(shè)備上。所以對模型計算量和推理速度有一定的要求;

2. 此類動作("Rotate fists counterclockwise" vs "Rotate fists clockwise")和傳統(tǒng)動作識別動作("Walking" vs "Running")相比有著較強時序性。

針對以上的兩點,我們基于2D CNN(輕便)提出了一個混合注意力機制的ACTION模塊(對于時序動作建模)

本次分享的主要內(nèi)容如下:1. 背景和動機

2. ACTION 模塊

3. 實驗

4. 總結(jié)


Talk·參考資料

這是本次分享中將會提及的資料,建議提前預(yù)習(xí)哦![1] ACTION-Net: Multipath Excitation for Action Recognition:

https://arxiv.org/abs/2103.07372

點擊閱讀:CVPR'21 | 都柏林圣三一大學(xué)和字節(jié)新工作ACTION-Net:一種高效、即插即用的動作識別模塊

[2] Zhu, Yi, et al. "A Comprehensive Study of Deep Video Action Recognition."?

https://arxiv.org/pdf/2012.06567.pdf

[3]?TSM: Temporal Shift Module for Efficient Video Understanding

https://openaccess.thecvf.com/content_ICCV_2019/papers/Lin_TSM_Temporal_Shift_Module_for_Efficient_Video_Understanding_ICCV_2019_paper.pdf

[4]?TEA: Temporal Excitation and Aggregation for Action Recognition

https://arxiv.org/abs/2004.01398


Talk·提問交流

通過以下兩種方式提問都將獲得微信現(xiàn)金紅包獎勵哦!

方式 ①

在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

你的每一次貢獻(xiàn),我們都會給予你相應(yīng)的i豆積分,還會有驚喜獎勵哦!


方式 ②

在本文留言區(qū)直接提出你的問題,或掃描下方二維碼提問!

Talk·嘉賓介紹

王芷蔚
都柏林圣三一大學(xué) 博士后研究員

王正蔚,都柏林圣三一大學(xué)博士后研究員。目前主要研究視頻動作識別,側(cè)重于時序動作的應(yīng)用場景如人機交互,VR/AR。2015-2019年在Insight Centre for Data Analytics,都柏林城市大學(xué)獲得博士學(xué)位。博士主要研究方向是腦機接口與深度神經(jīng)網(wǎng)絡(luò)的信息交互。

作為主要作者在CVPR,ICRA,CSUR,Neurocomputing等會議、期刊發(fā)表多篇論文。擔(dān)任NeurIPS,ICLR,TIP,CSUR,Neural Networks等會議期刊審稿人。主要研究興趣包括視頻動作理解,腦機接口,生成對抗網(wǎng)絡(luò)。


ICLR 2021 系列Talk

第①彈


關(guān)于TechBeat人工智能社區(qū)

TechBeat(www.techbeat.net)是一個薈聚全球華人AI精英的成長社區(qū)。我們希望為AI人才打造更專業(yè)的服務(wù)和體驗,加速并陪伴其學(xué)習(xí)成長。期待這里可以成為你學(xué)習(xí)AI前沿知識的高地,分享自己最新工作的沃土,在AI進(jìn)階之路上的升級打怪的根據(jù)地!

更多詳細(xì)介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ

Talk預(yù)告 | 博士后研究員王正蔚: ACTION-Net, 一種高效、即插即用的動作識別模塊的評論 (共 條)

分享到微博請遵守國家法律
白水县| 綦江县| 金堂县| 安福县| 涞水县| 南昌县| 安国市| 北海市| 呈贡县| 台南市| 城市| 呼和浩特市| 义乌市| 杨浦区| 太谷县| 泰兴市| 灵寿县| 柏乡县| 敖汉旗| 兰西县| 望都县| 霞浦县| 博野县| 石台县| 玛多县| 哈密市| 白银市| 台东县| 河西区| 女性| 文水县| 平遥县| 柳林县| 台安县| 安新县| 扎兰屯市| 沁源县| 西乡县| 江达县| 汝南县| 邳州市|