Talk預(yù)告 | 新加坡國立大學(xué)博士生施宇鈞:DragDiffusion-基于擴(kuò)散模型的關(guān)鍵點(diǎn)拖拽圖

本期為TechBeat人工智能社區(qū)第518期線上Talk!
北京時間8月2日(周三)20:00,?新加坡國立大學(xué)博士生—施宇鈞的Talk將準(zhǔn)時在TechBeat人工智能社區(qū)開播!
他與大家分享的主題是:?“DragDiffusion-基于擴(kuò)散模型的關(guān)鍵點(diǎn)拖拽圖片編輯”,屆時將為大家介紹DragDiffusion算法背景、動機(jī)、意義并會對該工作的一些技術(shù)細(xì)節(jié)進(jìn)行詳細(xì)的分析。
Talk·信息
▼
主題:DragDiffusion-基于擴(kuò)散模型的關(guān)鍵點(diǎn)拖拽圖片編輯
嘉賓:新加坡國立大學(xué)博士生—施宇鈞
時間:北京時間?8月2日(周三)20:00
地點(diǎn):TechBeat人工智能社區(qū)
http://www.techbeat.net/
?長按識別二維碼,一鍵預(yù)約TALK!

Talk·介紹
▼
對圖片靈活而精準(zhǔn)的編輯是一個富有挑戰(zhàn)性的課題。最近的一篇工作DragGAN提出了一個優(yōu)雅的圖片編輯框架:基于關(guān)鍵點(diǎn)拖拽的圖片編輯。雖然DragGAN展示了極為驚艷的結(jié)果,但受限于GAN的表達(dá)能力,其可用范圍受到了極大的約束。為嘗試解決這一問題,我們提出了一個名為DragDiffusion算法,將“Drag”編輯拓展到擴(kuò)散模型上。借助大規(guī)模預(yù)訓(xùn)練的擴(kuò)散模型,我們大大提高了這種編輯框架的實(shí)用性。同時,我也將對該工作的一些技術(shù)細(xì)節(jié)進(jìn)行詳細(xì)的分析。
Talk大綱
1、研究課題背景
2、研究課題動機(jī)及意義
3、方法效果展示與分析
4、方法介紹
5、方法技術(shù)細(xì)節(jié)的討論與分析
Talk·預(yù)習(xí)資料
▼

DragDiffusion技術(shù)報告鏈接:
https://arxiv.org/abs/2306.14435

論文鏈接:
https://arxiv.org/pdf/2305.10973.pdf
DragDiffusion代碼鏈接:
https://github.com/Yujun-Shi/DragDiffusion
DragGAN Talk鏈接:
https://www.techbeat.net/talk-info?id=788
Talk·提問交流
▼
在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

你的每一次貢獻(xiàn),我們都會給予你相應(yīng)的i豆積分,還會有驚喜獎勵哦!

Talk·嘉賓介紹
▼

新加坡國立大學(xué)博士生
施宇鈞目前是新加坡國立大學(xué)三年級博士生,受陳延福(Vincent Y. F. Tan)老師指導(dǎo)。他本科畢業(yè)于南開大學(xué)計算機(jī)系,目前的科研方向集中于生成式模型及其在圖片與視頻中的應(yīng)用。在此之前,他的科研課題主要集中于機(jī)器學(xué)習(xí)中的數(shù)據(jù)分布偏移(包括持續(xù)學(xué)習(xí),聯(lián)邦學(xué)習(xí))。他的工作曾發(fā)表于ICLR,CVPR,NeurIPS,ICCV等機(jī)器學(xué)習(xí)與計算機(jī)視覺頂會。
個人主頁:?
https://www.techbeat.net/grzytrkj?id=33412
?長按識別二維碼,一鍵預(yù)約TALK!



關(guān)于TechBeat人工智能社區(qū)
▼
TechBeat (www.techbeat.net) 是一個薈聚全球華人AI精英的成長社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗(yàn),加速并陪伴其學(xué)習(xí)成長。 期待這里可以成為你學(xué)習(xí)AI前沿知識的高地,分享自己最新工作的沃土,在AI進(jìn)階之路上的升級打怪的根據(jù)地!