Talk預告 | NAACL Best Paper一作張宋揚: 視頻輔助的無監(jiān)督句法分析

本周為TechBeat人工智能社區(qū)第319期線上Talk。
北京時間7月13日(周二)晚8點,羅切斯特大學在讀博士生——張宋揚的Talk將準時在TechBeat人工智能社區(qū)開播!
他與大家分享的主題是: “NAACL Best Paper:視頻輔助的無監(jiān)督句法分析”,屆時將介紹有關如何進一步提高句法分析器性能這一研究過程中所面臨的挑戰(zhàn)與進展。
Talk·信息
主題:NAACL Best Paper視頻輔助的無監(jiān)督句法分析
嘉賓:羅切斯特大學在讀博士生?張宋揚
時間:北京時間?7月13日 (周二) 20:00
地點:TechBeat人工智能社區(qū)
http://www.techbeat.net/
完整版怎么看?
掃描下方二維碼,或復制鏈接https://datayi.cn/w/lPQJgmDo至瀏覽器,一鍵完成預約!
上線后會在第一時間收到通知哦~
Talk·提綱
近年來,有一系列工作利用視覺信號來提升句法分析器的性能,并取得了不錯的結(jié)果。但這些工作局限于靜態(tài)圖片,卻忽略了視頻中物體場景等動態(tài)變化的信息。而這些動態(tài)信息往往對于動詞性短語的句法學習更有用。本文首先研究了視頻中不同類型的特征(物體,動作,場景,聲音,人臉,OCR和語音)對句法分析器的影響。此外,本文還提出了一個新的模型Multi-Modal Compound PCFG (MMC-PCFG),可有效利用多種不同視頻特征進一步提高句法分析器的性能。
本次分享的主要內(nèi)容如下:
1. 無監(jiān)督句法分析的問題背景
2. 相關方法的介紹
3. 我們的研究
4. 實驗結(jié)果
5. 總結(jié)
Talk·參考資料
這是本次分享中將會提及的資料,建議提前預習哦!
1.?Shi et al. visually grounded neural syntax acquisition, ACL 2019
https://arxiv.org/pdf/1906.02890.pdf
2.?Zhao et al. Visually Grounded Compound PCFGs, EMNLP 2020
https://arxiv.org/pdf/2009.12404.pdf
3.?Gabeur et al. Multi-modal Transformer for Video Retrieval, ECCV 2020
https://arxiv.org/pdf/2007.10639.pdf
4. Kim et al. Compound Probabilistic Context-Free Grammars for Grammar Induction, ACL2019?
https://arxiv.org/pdf/1906.10225.pdf
Talk·提問交流
通過以下兩種方式提問都將獲得微信現(xiàn)金紅包獎勵哦!
方式 ①
在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

你的每一次貢獻,我們都會給予你相應的i豆積分,還會有驚喜獎勵哦!
方式 ②
在本文留言區(qū)直接提出你的問題,或掃描下方二維碼提問!

Talk·嘉賓介紹

張宋揚,目前是羅切斯特大學計算機系三年級博士生。之前分別于東南大學和浙江大學獲得計算機科學與技術的本科和碩士學位。主要研究方向是視頻片段的時間定位和句法分析。博士發(fā)表過多篇頂會論文,包括ACMMM,AAAI,NAACL。2019年在HACS視頻時間定位比賽中獲得第一名。2021年獲得NAACL最佳長文獎。
個人主頁:
https://sy-zhang.github.io/
關于TechBeat人工智能社區(qū)
TechBeat(www.techbeat.net)隸屬于將門創(chuàng)投,是一個薈聚全球華人AI精英的成長社區(qū)。我們希望為AI人才打造更專業(yè)的服務和體驗,加速并陪伴其學習成長。期待這里可以成為你學習AI前沿知識的高地,分享自己最新工作的沃土,在AI進階之路上的升級打怪的根據(jù)地!
更多詳細介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ