Talk預告 | 謝菲爾德大學NLP組系列①:基于對比-對偶學習的稠密信息檢索模型

本期為TechBeat人工智能社區(qū)第392期線上Talk。北京時間3月30日(周三)20:00,謝菲爾德大學計算機系副教授—林成華和謝菲爾德大學計算機系在讀博士生—李一之Talk將準時在TechBeat人工智能社區(qū)開播!
他們與大家分享的主題是:“謝菲爾德大學NLP組及Lincedo實驗室簡介”和“基于對比-對偶學習的稠密信息檢索模型”,屆時將介紹一個利用對偶 Query Retrieval 任務(wù),在原有訓練數(shù)據(jù)集上對表征做進一步優(yōu)化學習并提升檢索性能的工作。
Talk·信息
主題:基于對比-對偶學習的稠密信息檢索模型?
嘉賓:謝菲爾德大學計算機系副教授?林成華謝菲爾德大學計算機系在讀博士生?李一之
地點:TechBeat人工智能社區(qū)
http://www.techbeat.net/

完整版怎么看?
掃描下方二維碼,或復制鏈接https://datayi.cn/w/WoMpVdYP至瀏覽器,一鍵完成預約!上線后會在第一時間收到通知哦
Talk·提綱
?謝菲爾德大學NLP組及Lincedo實驗室簡介?
謝菲爾德大學系“英國常春藤”羅素集團創(chuàng)始成員、六所紅磚大學之一,常年穩(wěn)居全球前100。計算機系擁有近60位教職人員(faculty),包含自然語言處理、語音、機器學習、計算機視覺等10個研究組。在最新英國官方權(quán)威科研力量評估中(Research Excellence Framework),謝菲爾德大學計算機系排名全英第五。自然語言處理組成立于1993年,現(xiàn)有10+教職人員、60+博士后/博士生,是歐洲最大和最成功的自然語言處理組之一。
具體分享提綱如下:
1. 謝菲爾德大學概況
2. 自然語言處理(NLP)組概況
3. Lincedo實驗室概況
?基于對比-對偶學習的稠密信息檢索模型?
現(xiàn)有的 dense retrieval 模型的目標大多是為文檔檢索任務(wù)學習到合適的query和document表征。由于訓練集數(shù)據(jù)量大,標注困難,Dense Retrieval 往往采用基于對比學習的半監(jiān)督學習框架來對 Document Retrieval 任務(wù)進行訓練。在Talk中講者將會介紹一個利用對偶 Query Retrieval 任務(wù),在原有訓練數(shù)據(jù)集上對表征做進一步優(yōu)化學習并提升檢索性能的工作。
具體分享提綱如下:
1. 對 Dense Retriever 類型的文檔檢索方法、模型訓練方式做簡要介紹
2. 介紹基于對比學習和對偶學習的訓練方法
3. 對模型的性能測試和表征空間進行分析
Talk·預習資料
[1] Karpukhin, Vladimir, Barlas O?uz, Sewon Min, Ledell Wu, Sergey Edunov, Danqi Chen, and Wen-tau Yih. 2020. ‘Dense Passage Retrieval for Open-Domain Question Answering’. ArXiv:2004.04906 [Cs],April.?http://arxiv.org/abs/2004.04906[2]?Xiong, Lee, Chenyan Xiong, Ye Li, Kwok-Fung Tang, Jialin Liu, Paul N. Bennett, Junaid Ahmed, and Arnold Overwijk. 2020. ‘Approximate Nearest Neighbor Negative Contrastive Learning for Dense Text Retrieval’. In .https://openreview.net/forum?id=zeFrfgyZln.[3]?Wang, Tongzhou, and Phillip Isola. 2020. ‘Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere’. ArXiv:2005.10242 [Cs, Stat], November.http://arxiv.org/abs/2005.10242.[4] Xia, Yingce, Tao Qin, Wei Chen, Jiang Bian, Nenghai Yu, and Tie-Yan Liu. 2017. ‘Dual Supervised Learning’. ArXiv:1707.00415 [Cs, Stat], July.http://arxiv.org/abs/1707.00415.
Talk·提問交流
通過以下兩種方式提問都將獲得微信現(xiàn)金紅包獎勵哦!
方式 ①
在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

你的每一次貢獻,我們都會給予你相應(yīng)的i豆積分,還會有驚喜獎勵哦!
方式 ②
在本文留言區(qū)直接提出你的問題,或掃描下方二維碼提問!

Talk·嘉賓介紹

林成華,英國謝菲爾德大學計算機系副教授,博士生導師,系研究與創(chuàng)新副主任(Deputy Director of Research and Innovation), 系自然語言處理研究組核心成員,主要從事自然語言處理/生成,對話及問答系統(tǒng),知識圖譜嵌入,自動摘要,情感分析,多模態(tài)深度學習等相關(guān)技術(shù)的研究。作為項目負責人主持過多項英國國家工程和物理科學研究基金、 英國國家經(jīng)濟與社會研究基金面上項目,以及與知名企業(yè)(BBC,三星,騰訊,JP Morgan等)合作的橫向課題。在國際權(quán)威期刊和一流學術(shù)會議(如ACL,ICML,EMNLP,NAACL,ICDE,CIKM,TKDE,TASLP)上發(fā)表論文近90篇,谷歌學術(shù)引用2700+。發(fā)表的論文曾獲得ACM國際信息與知識管理大會(CIKM)2020 年度時間檢驗獎,國際自然語言生成大會(INLG) 2019最佳論文提名獎,國際自然語言及信息系統(tǒng)大會(NLDB)2017最佳論文獎。2019年榮獲蘇格蘭國家信息科學和計算機聯(lián)盟(SICSA)年度最佳博士生導師提名獎(全英國僅提名五人)?,F(xiàn)為Computer Speech and Language,Neurocomputing等知名期刊編委,自然語言處理頂級期刊TACL以及Computational Linguistics的Standing Reviewer,2022年ACL亞太分會(AACL)和國際自然語言處理聯(lián)合會議 (International Joint Conference on Natural Language Processing) 研討會共同主席,2019年擔任自然語言生成旗艦學術(shù)會議INLG程序委員會共同主席,并多次次擔任ACL(2022),EMNLP(2020,2021),IJCAI(2021),INLG(2020), NLPCC(2022)等國際國內(nèi)頂級學術(shù)會議(高級)領(lǐng)域主席。
個人主頁:
https://chenghualin.wordpress.com/

2020年取得北京郵電大學計算機與科學技術(shù)本科學位,2022年入學謝菲爾德大學,就讀于計算機系。研究經(jīng)歷包含基于生成對抗網(wǎng)絡(luò)的謠言檢測、基于語言模型的文檔檢索以及知識圖譜的鏈接預測等。
個人主頁:
https://www.linkedin.com/in/yizhi-li-854028193/


關(guān)于TechBeat人工智能社區(qū)
TechBeat (www.techbeat.net) 是一個薈聚全球華人AI精英的成長社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗,加速并陪伴其學習成長。 期待這里可以成為你學習AI前沿知識的高地,分享自己最新工作的沃土,在AI進階之路上的升級打怪的根據(jù)地!
更多詳細介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ