AI繪畫超強功能ControlNet使用教程-Canny篇

一.前言
上次,已經(jīng)教了大家controlnet和openpose怎么安裝,并且讓大家已經(jīng)下載了三個controlnet的模型,相信大家都已經(jīng)摩拳擦掌,躍躍欲試了吧?
那么,今天就來教大家如何使用這個強大的controlnet功能。
那么我們開始吧,Enjoy~
二.開始之前
1.你需要安裝了stable diffusion webui,如果沒有安裝的話,請查看這里的教程(win教程,MacOS教程)。
2.你需要已經(jīng)安裝了controlnet插件,如果沒有安裝的話,請查看這里的教程。
三.教程
(一)?線稿上色
1.第一個環(huán)節(jié),我們先來試試canny模型,常用的場景有,給線稿上色和換顏色。
2.我們先隨便找一張線稿

3.把線稿導入controlnet圖片框,并設置相關參數(shù)。
(1)生成圖的區(qū)域,分辨率比例和線稿比例一致。Prompt區(qū)域,我寫的是,girl,amine(女生,漫畫)。
(2)基礎模型要用漫畫模型,比如waifu,novelai,Counterfeit等。

(3)Controlnet區(qū)域參數(shù)設置
勾選Enable,來啟用Contolnet,
因為喂的圖是白底線稿,就需要啟用invert input color反色
(顯存4G或者4G以下的,還可以把low VRAM勾選一下,這個是低顯存專用模式,我5g顯存,沒勾,問題不大。大家也可以試試勾和不勾的效果。以好的效果為準。)
預處理器,線稿無需選,留空。模型選擇canny。
Resize model用默認的scale to fit即可。(如果顯存特別小的,或者mac電腦,也可以試試勾選just resize模式。)
Canvas width height 則和線稿比例一致即可。

設置好之后,可以點擊generate按鈕了。
看看效果。


還挺好玩的。
一不小心就生成很多張圖片了,哈哈。
(二)漫畫換色
弄完線稿,我們來嘗試一下圖生圖好了。
先試一下動漫類。




看得出來,動漫的效果,還是挺哇塞的。
那么我的設置是怎樣的呢?
Prompt寫了主要的幾個特征,girl,earphone, coffee(女孩,耳機,咖啡)。
采樣器選了dpm+sde karras
尺寸比例參照輸入圖。因為我顯存比較小,所以這里尺寸我設小了一點。

再看controlnet區(qū)域
Enable必選。
預處理器和模型都選擇canny。畫布canvas參照原圖。
記得點一下preview,這樣原圖右側會出現(xiàn)預處理圖像,如果丟失太多細節(jié)就換一個預處理器。
注意,預處理器和模型最好選擇同一類,比如,都是canny,都是depth,都是openpose之類,否則引導效果會大打折扣。

(三)真人圖片
接著我們來看一下真人類照片怎么樣。
比如我用前幾天的一張圖,


\怎么說呢,真人的效果,比動漫效果差不少。
雖然也是引導生成類似圖片,但是部分細節(jié),自然度,皮膚機理等還是很生硬。
動漫效果如果算90分的話,真人效果也就70分左右。而且如果沒有加lora的話,實際效果還要打折扣,可能及格分都不到。
(當然,也可能是我技術不過關,設置有問題,那么懂得大佬歡迎指導指導,看看問題在哪里。)
下面是生成的參數(shù)設置要點:
基礎模型換成了真人模型,chilloutmix,
Prompt強調(diào)了真實。用了realistic,raw photo等字樣。特別增加了lora語句,以讓皮膚,面部肌理繪制更像真人。(不會用lora的參照之前的這篇文章)
照片比例參照原圖,原圖是正方形,這里也設置成正方形。而controlnet部分,和上面的canny-動漫樣例除了畫布canva長寬不一樣,其他都一樣。

一不小心,canny模型用法都講了一篇文章了。
后續(xù)Controlnet部分,計劃還會分享openpose(指定姿勢)和scribble(草圖)模型的用法。
感興趣的童鞋記得關注點贊走起哦~
注意:
contorlnet部分可能比較消耗顯卡性能和顯存。經(jīng)常報錯,或者生成效果不如意,很正常,多耐心嘗試即可。
如果顯卡實在太不給力,幾分鐘十幾分鐘生成一張圖片,也不要強求,除非你愿意換顯卡。
AI繪畫相關問題都可以私我,會盡量幫忙解決。
備注:本文含AI創(chuàng)作內(nèi)容。