最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

AI繪畫一站式教程

2023-02-26 16:09 作者:LLMION  | 我要投稿

自2022年底以來僅過去幾個月,憑借著眾多擁有互聯(lián)網(wǎng)精神的網(wǎng)友的不懈努力,AI繪畫已經(jīng)變得像Minecraft整合包一樣簡單易上手了。

前言

在使用AI繪畫時,請注意以下幾點:

  1. 請勿商用,避免侵犯版權(quán)或知識產(chǎn)權(quán)。

  2. 由于AI繪畫模型通常需要消耗大量的計算資源,因此請確保您的計算機性能足夠強大(建議8G顯存或以上)。

  3. AI繪畫模型生成的繪畫作品可能存在一定的不確定性,可能無法完全滿足您的預(yù)期。建議在繪畫前調(diào)整好參數(shù)并進行適當?shù)念A(yù)覽和調(diào)整,以獲得滿意的繪畫結(jié)果。

  4. AI繪畫模型僅是一種輔助工具,繪畫作品的創(chuàng)作過程仍需由人類藝術(shù)家進行主導(dǎo)和把控。

  5. AI繪畫模型的開發(fā)者和貢獻者不對使用該模型所產(chǎn)生的任何后果負責(zé),使用者需自行承擔風(fēng)險。

  6. 最后,使用AI繪畫模型可以帶來無窮樂趣和創(chuàng)造性的體驗,但請務(wù)必合法使用(尤其是真人模型),遵守相關(guān)法律法規(guī)和道德準則。

1.本地部署

在使用AI繪畫模型之前,需要先準備一臺配備英偉達nvidia顯卡的電腦,無論什么型號最好是大顯存,像我還在用1070TI這樣的上古顯卡也可以支持AI繪畫模型的運行,甚至一些更低的顯卡也可以嘗試使用,不過可能需要降低繪畫參數(shù)或較長的等待時間。本教程不會涉及網(wǎng)站部署和云端部署③,還有midjourney④或dall⑤等其他的AI繪畫模型,而是專注于介紹Stable Diffusion。如果你是A卡用戶,可以嘗試訪問以下項目:https://github.com/lshqqytiger/stable-diffusion-webui-directml(補充:已經(jīng)被星空佬做成整合包了:BV1Y84y1H73V


官方

https://github.com/AUTOMATIC1111/stable-diffusion-webui


有人整合好的(應(yīng)該都自帶Python環(huán)境):

獨立研究員-星空的整合包-BV1Ng411b7Ft

秋葉aaaki的啟動器-BV1ne4y1V7QU

注意,啟動器不包括整合包,秋葉aaaki的整合包在這里-BV17d4y1C73R


無論是誰的整合包都可以裝上啟動器,注:整合包的文件夾路徑不得有中文


把啟動器按照視頻那樣安裝進整合包之后啟動即可

首次啟動建議先進入高級選項查看一下設(shè)置
選擇你的顯卡,然后根據(jù)你的顯存大小選擇顯存優(yōu)化

用CPU也行,只不過...

版本管理里選擇穩(wěn)定版的最新版(新版自帶Lora功能)

模型和擴展之后在講,先啟動

2.Stable?Diffusion模型

啟動之后等待一段時間,會自然彈出網(wǎng)頁ui,這就是你的Stable?Diffusion。

Stable Diffusion webui

一步一步來,在最左上角的位置,便是Stable Diffusion的模型選擇窗口,打開可以看見你擁有的全部模型,Stable Diffusion模型是最基礎(chǔ)的一環(huán),不同的模型生成的效果也各不相同,模型文件一般放在

‘你的文件夾\stable-diffusion-webui\models\Stable-diffusion’

那么這些模型去哪找?

各種模型網(wǎng)站

https://civitai.com

https://rentry.co/sdmodels

https://cyberes.github.io/stable-diffusion-models/

https://publicprompts.art/

https://huggingface.co/?

http://aimodel.subrecovery.top

https://docs.qq.com/doc/DY0lFeWZuVXRCdUJU

http://www.123114514.xyz/models/ckpt

怎么識別哪個是Stable Diffusion模型?

就拿civitai舉例(civitai是個開源免費的網(wǎng)站)

civitai

看看預(yù)覽圖左上角是寫的是否是CHECKPOINT,再點進去驗證他的類型

檢查Tpye

如果是CHECKPOINT那就是Stable Diffusion的主模型

下載

在下載這里你可能會看見safetensors格式的模型,還有VAE,一般主模型都是ckpt也就是CHECKPOINT格式,而safetensors是一種比ckpt更安全的格式,其實無論你遇見的是ckpt還是safe都能用,只需明白是格式不同而已。

而VAE是放在‘你的文件夾\stable-diffusion-webui\models\VAE’里,用于提升畫面飽和度用的,具體可看下圖啟用

如何使用VAE

打開設(shè)置,找到Stable Diffusion,剛剛放進去的VAE需要刷新一下才能看見,然后再選擇你的VAE,保存設(shè)置,第五步不能漏掉,如果你找的模型沒有自帶VAE用整合包自帶的也行。


模型版本選擇

在選擇模型的時候你可能會看到一個模型分了好幾個版本,后面都帶有fp16,fp32之類的,這些都是剪枝模型,但和全精度的模型差別并不大,體積卻可以小好幾倍。

關(guān)于LoRA,這是個很強大的微調(diào)模型,你無需下載多個體積巨大的Stable Diffusion模型,只要一個Stable Diffusion模型,搭配上LoRA,你也照樣能做到多個不一樣的模型畫風(fēng),除了畫風(fēng)模型,LoRA也能做人物角色模型,姿勢模型等,而一個LoRA只有100MB只有的大小。在這之前只有Embedding和Hypernetworks用于微調(diào)模型,而現(xiàn)在Hypernetworks幾乎快被淘汰了,Embedding現(xiàn)在大部分作為負面提示詞來用。


3.提示詞

提示詞填寫

關(guān)于這方面已經(jīng)有許許多多的人都做了教程,這里就不多重復(fù)了

魔咒指南:https://www.kdocs.cn/l/ckgWD4Qreu2F

AI繪畫——深度教程:https://docs.qq.com/doc/DQ3ZJSGFmeVpWc2ta

Tags基本編寫邏輯及三段術(shù)式入門與解析v3:https://docs.qq.com/doc/DSHBGRmRUUURjVmNM

元素法典:https://docs.qq.com/doc/DWHFOd2hDSFJaamFm

關(guān)于有些負面提示詞的Embedding有以下推薦

(Embedding模型放在‘你的文件夾\stable-diffusion-webui\embeddings’):

https://huggingface.co/datasets/gsdf/EasyNegative
https://huggingface.co/datasets/Nerfgun3/bad_prompt

https://civitai.com/models/4629/deep-negative-v1x

4.參數(shù)

參數(shù)

1.采樣方法:之后會以圖片的方式直觀的告訴你

2.采樣步數(shù):跑一張圖需要多少步,之后也會放圖片

寬度高度就不多介紹了,就是分辨率大小

生成批次:點擊生成按鈕之后會出多少張圖,是以一張圖生成完之后再生成第二張

每批數(shù)量:每一批同時生成多少張圖,建議別動這項,費顯卡

3.提示詞相關(guān)性:之后會以圖片的方式直觀的告訴你

收集種子:默認-1,可以固定一個種子生成

面部修復(fù):給真人用的,可平鋪:沒用過,高清修復(fù):4.放大和5.重繪


關(guān)于分辨率有一些需要補充,就算你提示詞,種子,參數(shù)都一樣,只要分辨率有一點偏差那生成的結(jié)果都會大不一樣


1.目前所有采樣方法的效果一覽

一般常用Euler a,DPM++ 2M Karras,DDIM


2.Euler a,DPM++ 2M Karras,DDIM采樣各迭代20-35步

可以看到迭代步數(shù)對畫面的影響并不大


3.提示詞相關(guān)性

有略微差別,但也不是很大


4.高清修復(fù):三種常用算法

Latent,Latent(Nearest-exact),R-ESRGAN 4x+Anime6B

推薦Latent(Nearest-exact),只想放大推薦R-ESRGAN 4x+Anime6B


5.高清修復(fù)重繪幅度(Denoising)與采樣次數(shù)(Hires steps)

如圖






5.LoRA(待補充)

lora必須要一個主模型作為依賴,主要可用于給主模型提供穩(wěn)定的人物角色,場景,姿勢,服裝,畫風(fēng),表情等

角色LoRA


畫風(fēng)LoRA










6.ControlNet(待完善)


AI繪畫的革命性技術(shù)——擴散控制網(wǎng)絡(luò)ControlNet


什么是ControlNet?

https://arxiv.org/abs/2302.05543

ControlNet WebUI插件的安裝

https://github.com/Mikubill/sd-webui-controlnet

ControlNet模型

https://huggingface.co/webui/ControlNet-modules-safetensors


ControlNet分為預(yù)處理和模型,預(yù)處理可以根據(jù)選擇不用的模式處理你提供的圖片


canny——邊緣檢測提取線圖(待補)

hed——HED邊緣提取(待補)

midas——深度圖提取(待補)

mlsd——線段識別,適用于建筑、物體等(待補)

openpose——動作姿態(tài)提取(待補)

fake_scribble——提取涂鴉風(fēng)格線段(待補)

none——直接將參考圖片作為條件輸入(待補)


ControlNet模型則可以把預(yù)處理過的模型進行繪制


canny——基于輪廓精準繪制(待補)

depth——根據(jù)深度圖生成圖片,深度圖可以體現(xiàn)透視關(guān)系,也可用于多人圖,深度圖可由3D軟件生成,也可以使用PS(待補)

hed——相比canny自由發(fā)揮程度更高(待補)

mlsd——線段檢測,用于物體(建筑、車輛等)(待補)

normal——根據(jù)法線貼圖生成圖片(待補)

openpose——通過openpose姿態(tài)圖生成圖片,可使用Blender模型生成,?一個骨架對應(yīng)一個人,可用于多人圖(待補)

用于生成openpose骨骼的Blender模型: https://toyxyz.gumroad.com/l/ciojz,?此外也可以使用PS制作,每種顏色代表一個部位

scribble——涂鴉成圖(待補)

seg——通過色塊標注區(qū)域成圖(待補)

一些圖片:




7.Latent Couple


(待補)

畫幅分區(qū),多人情況下不同的特征,如圖:


附加(不確定要不要做)

N.LoRA訓(xùn)練

N.模型合并



①https://zhuanlan.zhihu.com/p/586372502

https://www.kdocs.cn/l/ckgWD4Qreu2F

https://www.midjourney.com

https://openai.com/dall-e-2




AI繪畫一站式教程的評論 (共 條)

分享到微博請遵守國家法律
宁津县| 宽城| 普宁市| 鄄城县| 青神县| 额济纳旗| 邵阳县| 蓬安县| 云阳县| 琼中| 搜索| 云安县| 宿州市| 通州区| 通辽市| 子洲县| 当涂县| 松原市| 凌源市| 阿克苏市| 东莞市| 东海县| 屯门区| 蒙山县| 伊金霍洛旗| 扎赉特旗| 全州县| 大宁县| 灌阳县| 富顺县| 错那县| 日照市| 治多县| 缙云县| 天峻县| 黄浦区| 高州市| 洛南县| 固始县| 那曲县| 高安市|