Talk預告 | 伊利諾伊大學安全學習實驗室系列⑤:自然語言處理模型的魯棒性、隱私保護

本期為TechBeat人工智能社區(qū)第385期線上Talk,也是伊利諾伊大學安全學習實驗室“可信機器學習: 機器學習魯棒性,隱私性,泛化性,及其內(nèi)在關(guān)聯(lián)”的系列Talk第⑤場。北京時間3月2日(周三)20:00,伊利諾伊大學在讀博士生——汪博欣的Talk將準時在TechBeat人工智能社區(qū)開播!
他與大家分享的主題是: “自然語言處理模型的魯棒性、隱私保護和倫理問題”,屆時將從機器學習和自然語言模型的魯棒性、隱私保護和倫理問題角度出發(fā),分享我們在可信任機器學習領(lǐng)域最新的研究成果。
Talk·信息
主題:自然語言處理模型的魯棒性及隱私保護
嘉賓:伊利諾伊大學在讀博士生汪博欣
時間:北京時間?3月2日?(周三) 20:00
地點:TechBeat人工智能社區(qū)
http://www.techbeat.net/

完整版怎么看?
掃描下方二維碼,或復制鏈接https://datayi.cn/w/GRwqvx4o至瀏覽器,一鍵完成預約!上線后會在第一時間收到通知哦
Talk·提綱
盡管目前大規(guī)模預訓練的語言模型已經(jīng)在眾多自然語言處理的任務(wù)中取得了巨大的成功,甚至超越了人類的水平,最近的一系列研究發(fā)現(xiàn)這些模型容易收到對抗樣本的攻擊,揭露了模型在魯棒性上的不足;而一些精心設(shè)計的成員推理攻擊(membership inference attack)又能使經(jīng)過訓練的模型泄露訓練數(shù)據(jù),這引發(fā)人們對機器學習模型隱私問題的擔憂;最后,最近的大規(guī)模語言模型在特定的上下文的情況下可能會生成不文明的、辱罵性的語言,為機器學習模型的安全部署提出了新的挑戰(zhàn)。為了解決上述的問題,我們的工作分別從機器學習和自然語言模型的魯棒性、隱私保護和倫理問題角度出發(fā),進行了深入全面的探索,并提出了新的算法來解決上述的挑戰(zhàn)。
具體分享提綱如下:
·?以評估語言模型的穩(wěn)健性的基于多任務(wù)的基準測試集
· 通過梯度壓縮和聚合進行可擴展的隱私保護算法
· 文明化大規(guī)模語言模型的領(lǐng)域自適應(yīng)訓算法
Talk·預習資料
1. Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of Language Models
https://openreview.net/forum?id=GF9cSKI3A_q
2. DataLens: Scalable Privacy Preserving Training via Gradient Compression and Aggregation
https://arxiv.org/abs/2103.11109
3. Exploring the Limits of Domain-Adaptive Training for Detoxifying Large-Scale Language Models
https://arxiv.org/abs/2202.04173
Talk·提問交流
通過以下兩種方式提問都將獲得微信現(xiàn)金紅包獎勵哦!
方式 ①
在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

你的每一次貢獻,我們都會給予你相應(yīng)的i豆積分,還會有驚喜獎勵哦!
方式 ②
在本文留言區(qū)直接提出你的問題,或掃描下方二維碼提問!

Talk·嘉賓介紹

汪博欣目前是是美國伊利諾伊大學香檳分校 UIUC 計算機系第三年級的博士生,同時在 UIUC 的 Secure Learning Lab 作為研究助理,受李博教授的指導。他的研究興趣主要集中在可信任的機器學習領(lǐng)域,包括機器學習模型的穩(wěn)健性、隱私性和倫理問題。他的研究愿景是希望探索目前機器學習模型的缺點,同時構(gòu)建更加穩(wěn)健、更加保護用戶隱私、更具泛化性的機器學習模型。他在相關(guān)領(lǐng)域有多篇論文被接受到頂級會議上,包括 NeurIPS、ICLR、ICML、CCS、EMNLP 等,同時也在多個頂級會議(NeurIPS、ICLR、ICML、ACL、EMNLP 等)上擔任 Program Committee。
個人主頁:https://wbx.life

系列Talk介紹

伊利諾伊大學安全學習實驗室SL2(Secure Learning Lab)(http://boli.cs.illinois.edu/)由助理教授李博以及10名博士生和1名博士后組成,實驗室隸屬于計算機組(https://cs.illinois.edu/)。
我們相信機器學習的安全性,隱私保護,可解釋性等可信賴性質(zhì)是引領(lǐng)未來機器學習算法和模型大規(guī)模部署和應(yīng)用的重要特質(zhì),尤其是在自動駕駛等對安全性質(zhì)要求頗高的應(yīng)用中?;诖撕诵睦砟?,SL2實驗室的研究重點是構(gòu)建可驗證性的可信機器學習算法,平臺和系統(tǒng),從而部署于不同的實際應(yīng)用中。
從2月16日開始,每周三、周四晚20點,伊利諾伊大學安全學習實驗室的老師及同學們將帶來一系列的Talk分享,議程如下:


關(guān)于TechBeat人工智能社區(qū)
TechBeat (www.techbeat.net) 是一個薈聚全球華人AI精英的成長社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗,加速并陪伴其學習成長。 期待這里可以成為你學習AI前沿知識的高地,分享自己最新工作的沃土,在AI進階之路上的升級打怪的根據(jù)地!
更多詳細介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ