AI繪畫一站式教程

自2022年底以來僅過去幾個月,憑借著眾多擁有互聯(lián)網(wǎng)精神的網(wǎng)友的不懈努力,AI繪畫①已經(jīng)變得像Minecraft整合包一樣簡單易上手了。
前言
在使用AI繪畫時,請注意以下幾點:
請勿商用,避免侵犯版權(quán)或知識產(chǎn)權(quán)。
由于AI繪畫模型通常需要消耗大量的計算資源,因此請確保您的計算機性能足夠強大(建議8G顯存或以上)。
AI繪畫模型生成的繪畫作品可能存在一定的不確定性,可能無法完全滿足您的預(yù)期。建議在繪畫前調(diào)整好參數(shù)并進行適當?shù)念A(yù)覽和調(diào)整,以獲得滿意的繪畫結(jié)果。
AI繪畫模型僅是一種輔助工具,繪畫作品的創(chuàng)作過程仍需由人類藝術(shù)家進行主導(dǎo)和把控。
AI繪畫模型的開發(fā)者和貢獻者不對使用該模型所產(chǎn)生的任何后果負責(zé),使用者需自行承擔風(fēng)險。
最后,使用AI繪畫模型可以帶來無窮樂趣和創(chuàng)造性的體驗,但請務(wù)必合法使用(尤其是真人模型),遵守相關(guān)法律法規(guī)和道德準則。
1.本地部署
在使用AI繪畫模型之前,需要先準備一臺配備英偉達nvidia顯卡的電腦,無論什么型號最好是大顯存,像我還在用1070TI這樣的上古顯卡也可以支持AI繪畫模型的運行,甚至一些更低的顯卡也可以嘗試使用,不過可能需要降低繪畫參數(shù)或較長的等待時間。本教程不會涉及網(wǎng)站部署和云端部署③,還有midjourney④或dall⑤等其他的AI繪畫模型,而是專注于介紹Stable Diffusion。如果你是A卡用戶,可以嘗試訪問以下項目:https://github.com/lshqqytiger/stable-diffusion-webui-directml(補充:已經(jīng)被星空佬做成整合包了:BV1Y84y1H73V)
官方:
https://github.com/AUTOMATIC1111/stable-diffusion-webui
有人整合好的(應(yīng)該都自帶Python環(huán)境):
獨立研究員-星空的整合包-BV1Ng411b7Ft
秋葉aaaki的啟動器-BV1ne4y1V7QU
注意,啟動器不包括整合包,秋葉aaaki的整合包在這里-BV17d4y1C73R
無論是誰的整合包都可以裝上啟動器,注:整合包的文件夾路徑不得有中文
把啟動器按照視頻那樣安裝進整合包之后啟動即可


用CPU也行,只不過...

模型和擴展之后在講,先啟動

2.Stable?Diffusion模型
啟動之后等待一段時間,會自然彈出網(wǎng)頁ui,這就是你的Stable?Diffusion。

一步一步來,在最左上角的位置,便是Stable Diffusion的模型選擇窗口,打開可以看見你擁有的全部模型,Stable Diffusion模型是最基礎(chǔ)的一環(huán),不同的模型生成的效果也各不相同,模型文件一般放在
‘你的文件夾\stable-diffusion-webui\models\Stable-diffusion’
那么這些模型去哪找?

各種模型網(wǎng)站
https://civitai.com
https://rentry.co/sdmodels
https://cyberes.github.io/stable-diffusion-models/
https://publicprompts.art/
https://huggingface.co/?
http://aimodel.subrecovery.top
https://docs.qq.com/doc/DY0lFeWZuVXRCdUJU
http://www.123114514.xyz/models/ckpt

怎么識別哪個是Stable Diffusion模型?
就拿civitai舉例(civitai是個開源免費的網(wǎng)站)

看看預(yù)覽圖左上角是寫的是否是CHECKPOINT,再點進去驗證他的類型

如果是CHECKPOINT那就是Stable Diffusion的主模型

在下載這里你可能會看見safetensors格式的模型,還有VAE,一般主模型都是ckpt也就是CHECKPOINT格式,而safetensors是一種比ckpt更安全的格式,其實無論你遇見的是ckpt還是safe都能用,只需明白是格式不同而已。
而VAE是放在‘你的文件夾\stable-diffusion-webui\models\VAE’里,用于提升畫面飽和度用的,具體可看下圖啟用

打開設(shè)置,找到Stable Diffusion,剛剛放進去的VAE需要刷新一下才能看見,然后再選擇你的VAE,保存設(shè)置,第五步不能漏掉,如果你找的模型沒有自帶VAE用整合包自帶的也行。

在選擇模型的時候你可能會看到一個模型分了好幾個版本,后面都帶有fp16,fp32之類的,這些都是剪枝模型,但和全精度的模型差別并不大,體積卻可以小好幾倍。
關(guān)于LoRA,這是個很強大的微調(diào)模型,你無需下載多個體積巨大的Stable Diffusion模型,只要一個Stable Diffusion模型,搭配上LoRA,你也照樣能做到多個不一樣的模型畫風(fēng),除了畫風(fēng)模型,LoRA也能做人物角色模型,姿勢模型等,而一個LoRA只有100MB只有的大小。在這之前只有Embedding和Hypernetworks用于微調(diào)模型,而現(xiàn)在Hypernetworks幾乎快被淘汰了,Embedding現(xiàn)在大部分也作為負面提示詞來用。

3.提示詞

關(guān)于這方面已經(jīng)有許許多多的人都做了教程,這里就不多重復(fù)了
魔咒指南:https://www.kdocs.cn/l/ckgWD4Qreu2F
AI繪畫——深度教程:https://docs.qq.com/doc/DQ3ZJSGFmeVpWc2ta
Tags基本編寫邏輯及三段術(shù)式入門與解析v3:https://docs.qq.com/doc/DSHBGRmRUUURjVmNM
元素法典:https://docs.qq.com/doc/DWHFOd2hDSFJaamFm

關(guān)于有些負面提示詞的Embedding有以下推薦
(Embedding模型放在‘你的文件夾\stable-diffusion-webui\embeddings’):
https://huggingface.co/datasets/gsdf/EasyNegative
https://huggingface.co/datasets/Nerfgun3/bad_prompt
https://civitai.com/models/4629/deep-negative-v1x

4.參數(shù)

1.采樣方法:之后會以圖片的方式直觀的告訴你
2.采樣步數(shù):跑一張圖需要多少步,之后也會放圖片
寬度高度就不多介紹了,就是分辨率大小
生成批次:點擊生成按鈕之后會出多少張圖,是以一張圖生成完之后再生成第二張
每批數(shù)量:每一批同時生成多少張圖,建議別動這項,費顯卡
3.提示詞相關(guān)性:之后會以圖片的方式直觀的告訴你
收集種子:默認-1,可以固定一個種子生成
面部修復(fù):給真人用的,可平鋪:沒用過,高清修復(fù):4.放大和5.重繪
關(guān)于分辨率有一些需要補充,就算你提示詞,種子,參數(shù)都一樣,只要分辨率有一點偏差那生成的結(jié)果都會大不一樣

1.目前所有采樣方法的效果一覽

2.Euler a,DPM++ 2M Karras,DDIM采樣各迭代20-35步

3.提示詞相關(guān)性

4.高清修復(fù):三種常用算法
Latent,Latent(Nearest-exact),R-ESRGAN 4x+Anime6B

5.高清修復(fù)重繪幅度(Denoising)與采樣次數(shù)(Hires steps)


5.LoRA(待補充)
lora必須要一個主模型作為依賴,主要可用于給主模型提供穩(wěn)定的人物角色,場景,姿勢,服裝,畫風(fēng),表情等
角色LoRA


畫風(fēng)LoRA






6.ControlNet(待完善)
AI繪畫的革命性技術(shù)——擴散控制網(wǎng)絡(luò)ControlNet
什么是ControlNet?
https://arxiv.org/abs/2302.05543
ControlNet WebUI插件的安裝
https://github.com/Mikubill/sd-webui-controlnet
ControlNet模型
https://huggingface.co/webui/ControlNet-modules-safetensors
ControlNet分為預(yù)處理和模型,預(yù)處理可以根據(jù)選擇不用的模式處理你提供的圖片
canny——邊緣檢測提取線圖(待補)
hed——HED邊緣提取(待補)
midas——深度圖提取(待補)
mlsd——線段識別,適用于建筑、物體等(待補)
openpose——動作姿態(tài)提取(待補)
fake_scribble——提取涂鴉風(fēng)格線段(待補)
none——直接將參考圖片作為條件輸入(待補)
ControlNet模型則可以把預(yù)處理過的模型進行繪制
canny——基于輪廓精準繪制(待補)
depth——根據(jù)深度圖生成圖片,深度圖可以體現(xiàn)透視關(guān)系,也可用于多人圖,深度圖可由3D軟件生成,也可以使用PS(待補)
hed——相比canny自由發(fā)揮程度更高(待補)
mlsd——線段檢測,用于物體(建筑、車輛等)(待補)
normal——根據(jù)法線貼圖生成圖片(待補)
openpose——通過openpose姿態(tài)圖生成圖片,可使用Blender模型生成,?一個骨架對應(yīng)一個人,可用于多人圖(待補)
用于生成openpose骨骼的Blender模型: https://toyxyz.gumroad.com/l/ciojz,?此外也可以使用PS制作,每種顏色代表一個部位
scribble——涂鴉成圖(待補)
seg——通過色塊標注區(qū)域成圖(待補)
一些圖片:





7.Latent Couple
(待補)
畫幅分區(qū),多人情況下不同的特征,如圖:





附加(不確定要不要做)
N.LoRA訓(xùn)練
N.模型合并
①https://zhuanlan.zhihu.com/p/586372502
②https://www.kdocs.cn/l/ckgWD4Qreu2F
③https://www.midjourney.com
④https://openai.com/dall-e-2