Talk預(yù)告 | 德州大學(xué)奧斯汀分校劉星超:擴(kuò)散生成模型新方法 - 極度簡化,一步生成

本期為TechBeat人工智能社區(qū)第483期線上Talk!
北京時間3月22日(周三)20:00,德州大學(xué)奧斯汀分校計算機(jī)系博士生——劉星超的Talk將準(zhǔn)時在TechBeat人工智能社區(qū)開播!他與大家分享的主題是:?“擴(kuò)散生成模型新方法:極度簡化,一步生成?”,屆時將分享Rectified Flow,一個”簡簡單單走直線“的生成模型。
Talk內(nèi)容解讀,可參考講者文章:
https://zhuanlan.zhihu.com/p/603740431
Talk·信息
主題:擴(kuò)散生成模型新方法:極度簡化,一步生成
嘉賓:德州大學(xué)奧斯汀分校計算機(jī)系博士生 劉星超
時間:北京時間?3月22日?(周三) 20:00
地點:TechBeat人工智能社區(qū)
http://www.techbeat.net/

完整版怎么看
掃描下方二維碼,或復(fù)制鏈接https://datayi.cn/w/Y9Jww7vR瀏覽器,一鍵完成預(yù)約!上線后會在第一時間收到通知哦?
Talk·介紹
Diffusion Generative Models(擴(kuò)散式生成模型)已經(jīng)在各種生成式建模任務(wù)中大放異彩,但是,其復(fù)雜的數(shù)學(xué)推導(dǎo)卻常常讓大家望而卻步,緩慢的生成速度也極大地阻礙了研究的快速迭代和高效部署。除此以外,擴(kuò)散式生成模型的一個眾所周知的問題就是生成速度慢:生成一張圖需要模擬一整個基于復(fù)雜的深度模型的擴(kuò)散過程。緩慢的生成速度是阻礙這些模型更廣泛的普及的一個主要瓶頸。Rectified Flow,一個”簡簡單單走直線“的生成模型,是我們對這些挑戰(zhàn)的一個回答:極度簡單,一步生成。我們的方法有以下要點:(1) 我們的模型基于常微分方程,無需一般擴(kuò)散模型復(fù)雜的推導(dǎo) (2) “走直線”讓我們模型實現(xiàn)快速生成。(3) 我們的方法不僅可以做生成模型,還可以應(yīng)用于很多更廣泛的遷移學(xué)習(xí)?(比如domain transfer)任務(wù)上。
Talk大綱:
研究背景 和 動機(jī)
如何訓(xùn)練rectified flow并加速實現(xiàn)一步生成
rectified flow取得的實驗結(jié)果和其數(shù)學(xué)性質(zhì)
Talk·預(yù)習(xí)資料
https://openreview.net/forum?id=XVjTT1nw5z
https://github.com/gnobitab/RectifiedFlow
Talk·提問交
在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

你的每一次貢獻(xiàn),我們都會給予你相應(yīng)的i豆積分,還會有驚喜獎勵哦!
Talk·嘉賓介紹

德州大學(xué)奧斯汀分校計算機(jī)系博士生
劉星超,德州大學(xué)奧斯汀分校博士生,導(dǎo)師是劉強(qiáng)老師。他的研究興趣包括貝葉斯推斷和生成式模型等。他在ICML,NeurIPS,ICLR等機(jī)器學(xué)習(xí)會議上發(fā)表多項工作。
個人主頁:https://github.com/gnobitab

-The End-

關(guān)于TechBeat人工智能社區(qū)
TechBeat (www.techbeat.net) 是一個薈聚全球華人AI精英的成長社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗,加速并陪伴其學(xué)習(xí)成長。 期待這里可以成為你學(xué)習(xí)AI前沿知識的高地,分享自己最新工作的沃土,在AI進(jìn)階之路上的升級打怪的根據(jù)地!
更多詳細(xì)介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ