太炸了!AI繪畫又有了新的重大突破!【杰視幫】
太炸了,真的是太炸了...??
自從今年3月初,Midjourney在設(shè)計圈“大開殺戒”已過去2個月。
這兩個月來,想必追逐AI腳步的同學(xué)們應(yīng)該深有感觸,AI的進(jìn)化實戰(zhàn)是太快了!

從探索Midjourney到拿下Stable Diffusion,再到追逐研究各種新模型,新插件。短短2個月里,我們似乎化身成了神農(nóng),在不斷品嘗“賽博百草”...

數(shù)量之多,且不說全行業(yè),就當(dāng)是設(shè)計行業(yè),隔三差五就出現(xiàn)些顛覆性的新技術(shù)!
這不,就在昨天,網(wǎng)絡(luò)上又長出了一株新的賽博百草:DragGAN
一種基于拖動交互方式來生成圖像的新技術(shù)。
小狗姿勢不好看?直接拖動就完事兒~ 實時生成真實效果

想讓獅子大開口?直接拖動就完事兒~

鄰家的妹子不夠甜?直接拖動就完事~

模特的姿勢不夠辣?直接拖動就完事~

這套實時呈現(xiàn)的直觀操作,簡直是Amazing?。。。?/span>
放在前幾天,我們可能得先用Stable Diffusion裝個openpose模型,給她把骨骼調(diào)一下,然后等待重新渲染。
如果嫌衣服短了,還得再優(yōu)化下描述詞,或者局部重繪,重新再跑一遍...

靈活性和通用性確實不太行,且上手門檻較高...
但現(xiàn)在有了DragDAN,只需輕輕拖拽,就能實時呈現(xiàn)了!等于是一套動作搞定~

官方說哪怕是被遮擋的對象,或者是有一定規(guī)律性的對象,都能識別并做出逼真的效果。

這下我們服電子徭役又輕松了許多,直接在素材上進(jìn)行修改就完事了,再也不用通宵找素材了~?

甲方說大點就大點,就算是給大象轉(zhuǎn)身都不成問題!

由于該技術(shù)前幾天才剛公布,我們目前還無法體驗,官方說代碼將于6月份公布,希望這不是一個餅...

本來文章到這里就結(jié)束了,但是突然發(fā)現(xiàn)...?文章好像深度不太夠...??好吧,那我們來升華一下~

記得3月中旬,我們出第一套MJ課程的時候就說過,大家不必過于擔(dān)心沒緊跟AI會被同行甩開。
因為技術(shù)發(fā)展的很快,現(xiàn)在要一個月學(xué)會的,等技術(shù)一革新,可能一分鐘就學(xué)會了。
這其中更值得我們?nèi)リP(guān)心的,是在探索過程中,我們和新事物打交道的學(xué)習(xí)和思維方式。
就像學(xué)圍棋一樣,死記硬背各種定式,遠(yuǎn)不如去理解背后的思想,才能以不變應(yīng)萬變。回歸設(shè)計的學(xué)習(xí),也亦是如此。

我們后面還會出一些AI在商業(yè)運(yùn)用中的實戰(zhàn)教程免費(fèi)分享給杰視幫的老學(xué)員們,由于目前項目還在保密期,所以大家靜候佳音哈~

下面這兩套AI課,還沒看過的小伙伴,可以掃碼1分錢領(lǐng)取。
MJ的課程沒什么太特別的內(nèi)容就暫時不更新了,但SD的這套課還會持續(xù)更新~ 大家莫急,每個周末我會抽時間更新的...?

要領(lǐng)AI課程資料的同學(xué),也可以直接加我微信:nkzx31905(秋水)
很榮幸,我們能活在AI大爆發(fā)的時代,見證這一劃時代的巨變!