AI 黑科技|DragGAN 已開放使用,讓大象轉身只需拖動鼠標,附離線版!
在圖像生成領域,以 Stable Diffusion 為代表的擴散模型已然成為當前占據(jù)主導地位的范式,但擴散模型依賴于迭代推理,這是一把雙刃劍,因為迭代方法可以實現(xiàn)具有簡單目標的穩(wěn)定訓練,但推理過程需要高昂的計算成本。
DragGAN
交互式圖像編輯新高度
最近,來自馬克斯?普朗克計算機科學研究所、MIT CSAIL 和谷歌的研究者們研究了一種控制 GAN 的新方法 DragGAN,能夠讓用戶以交互的方式「拖動」圖像的任何點精確到達目標點。

這種全新的控制方法非常靈活、強大且簡單,有手就行,只需要選定想要「修」的部分(?? 紅點),再選擇移動的方向(?? 藍點)然后在圖像上「拖動」想改變的位置點(操縱點),剩下的交給 AI 就完事了。

比如一只狗狗,你可以通過拖拽直接修改狗狗嘴的大小,是否站立還是趴著,腿的長短等等。鼠標拖一拖,輕松變換小狗的動作。
再比如,你可以通過拖動操縱點,讓單手插兜的模特把手拿出來、改變站立姿勢、短袖改長袖。看上去就像是同一個模特重新拍攝了新照片:

DragGAN 能夠通過精確控制像素的位置對圖像進行改變,可處理的圖像類型包括動物、汽車、人類、風景等,涵蓋大量物體姿態(tài)、形狀、表情和布局,并且用戶的操作方法簡單通用。
更重要的是,得益于 AI 的加持,調整后的圖像依舊符合現(xiàn)實邏輯,幾乎看不出修圖的痕跡。
目前,DragGAN 終于宣布開源,所有人都下載體驗,小呆還為大家搞來了離線版,無需聯(lián)網(wǎng)就能玩,那么你會把 DragGAN 用在哪里呢?
在公眾號《奇跡秀》回復【?DragGAN?】獲取下載。
免責聲明:以上資源皆來源于互聯(lián)網(wǎng)公開分享的內(nèi)容,僅用于個人學習使用,請禁止用于商業(yè)用途和倒賣,如真正需要,請支持版權方。
END