最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

AI繪畫(huà)教程 | 喂飯級(jí)提高出圖質(zhì)量全流程(Stable Diffusion)

2023-04-22 23:23 作者:世界創(chuàng)造術(shù)  | 我要投稿

大家好,我們是為創(chuàng)造者們排憂解難的AI手藝人。

最近聽(tīng)說(shuō)有不少創(chuàng)造者被AI出圖的質(zhì)量所困擾,我們特別為大家整理了能夠快速提高出圖質(zhì)量的方法,實(shí)用、細(xì)致、好上手。

我們按照作畫(huà)過(guò)程中AI的參與度提供了4種AI繪畫(huà)方法,創(chuàng)造者們可以挑選自己適合的來(lái)看,并不是AI參與度越低或越高就越好:

AI參與度100%——基本無(wú)插件使用,0修圖基礎(chǔ),0繪畫(huà)基礎(chǔ)。

AI參與度70%——有插件使用,0修圖基礎(chǔ),0繪畫(huà)基礎(chǔ)。

AI參與度50%——有插件使用,有修圖基礎(chǔ),0繪畫(huà)基礎(chǔ)。

AI參與度30%——有插件使用,有修圖基礎(chǔ),有繪畫(huà)基礎(chǔ)。

?

看完本教程可以獲得:

? 4種全流程AI繪畫(huà)方法

? 跑出更高質(zhì)量的圖

? 組裝出更適合自己的高效出圖方法

?

觀看本教程需要:

? 已安裝配置好webUI,并至少順暢的跑過(guò)一次圖。

安裝入口:

@秋葉aaaki 【AI繪畫(huà)】Stable Diffusion整合包v4發(fā)布!全新加速 解壓即用 防爆顯存 三分鐘入門(mén)AI繪畫(huà) ☆可更新 ☆訓(xùn)練 ☆漢化

https://www.bilibili.com/video/BV1iM4y1y7oA

? 至少懂一點(diǎn)比較基礎(chǔ)的AI繪畫(huà)知識(shí)(如模型下載、安裝等)。

大家可以嘗試先跟著教程做,遇到基礎(chǔ)上的困難可以去以下入口查閱或者評(píng)論區(qū)留言~

@秋葉aaaki 【AI繪畫(huà)】從零開(kāi)始的AI繪畫(huà)入門(mén)教程——魔法導(dǎo)論

https://www.bilibili.com/read/cv22159609

?

關(guān)于本教程:

? 顏色說(shuō)明

擴(kuò)展教程、素材、工具、插件

? 盡量不使用不常用的專用術(shù)語(yǔ),不使用付費(fèi)產(chǎn)品,不解釋深?yuàn)W原理,以降低創(chuàng)造者們實(shí)操的臺(tái)階和成本。

? 任何問(wèn)題&想法&建議都可以在評(píng)論區(qū)留言~

?


1.?? AI參與度100%

1.1.? 請(qǐng)用一句話概括它

文生圖抽卡,圖生圖提高質(zhì)量,可無(wú)腦跑圖。

1.2.? 它適合我用嗎?

如果創(chuàng)造者認(rèn)領(lǐng)以下任何標(biāo)簽之一,那么就可以嘗試使用這種方法:

? 提示詞工程學(xué)高級(jí)工程師&高級(jí)咒術(shù)師

? 測(cè)試新入手的模型

? 想要保留種子及圖片信息的

? 新手煉丹師&咒術(shù)師練手

? 0繪畫(huà)&攝影&設(shè)計(jì)基礎(chǔ)

? 對(duì)畫(huà)面沒(méi)有任何要求,只要好看就行

? 心情很好,來(lái)玩

? 心情不好,沒(méi)精力TJ

1.3.? 請(qǐng)展示一下成果

parameters
((masterpiece,best quality)),1girl, solo,nahida_genshin, cross-shaped pupils,default_dress,green cape,from below,sitting on a branch, giant tree,full body, foliage,float leaf,<lora:yetAnotherNahidaGenshin_nahidAV3:1>
Negative prompt: EasyNegative, badhandv4,((missing fingers)),
Steps: 25, Sampler: DPM++ 2M Karras, CFG scale: 10, Seed: 3306182324, Size: 1024x1536, Model hash: a074b8864e, Model: C2_B_Counterfeit-V2.5_pruned, Denoising strength: 0.7, Clip skip: 2, ENSD: 31337, Mask blur: 4
postprocessing
Postprocess upscale by: 2.5, Postprocess upscaler: ESRGAN_4x
parameters
((masterpiece,best quality)),1girl, solo,nahida_genshin, cross-shaped pupils,default_dress,green cape,standing,((dome garden)),outdoors, <lora:yetAnotherNahidaGenshin_nahidAV3:1>
Negative prompt: EasyNegative, badhandv4
Steps: 25, Sampler: DPM++ 2M Karras, CFG scale: 5.5, Seed: 1033820364, Size: 1024x1536, Model hash: a074b8864e, Model: C2_B_Counterfeit-V2.5_pruned, Denoising strength: 0.2, Clip skip: 2, ENSD: 31337, Mask blur: 4
postprocessing
Postprocess upscale by: 2.5, Postprocess upscaler: ESRGAN_4x
parameters
((masterpiece,best quality)),1girl, solo,nahida_genshin, cross-shaped pupils,default_dress,green cape,from below,sitting on a branch, full body,((dome church)), outdoors, <lora:yetAnotherNahidaGenshin_nahidAV3:1>
Negative prompt: EasyNegative, badhandv4
Steps: 25, Sampler: DPM++ 2M Karras, CFG scale: 10, Seed: 869221550, Size: 1024x1536, Model hash: a074b8864e, Model: C2_B_Counterfeit-V2.5_pruned, Denoising strength: 0.5, Clip skip: 2, ENSD: 31337, Mask blur: 4
postprocessing
Postprocess upscale by: 2.5, Postprocess upscaler: ESRGAN_4x

1.4.? 具體要怎么做?

1.4.1.? PART 1 文生圖

目標(biāo):跑出多種多樣的不同的圖。

1.4.1.1.????????? 模型選擇

確定畫(huà)風(fēng)傾向,挑選需要的底模與LoRA。

演示的底模:

Counterfeit-V2.5(id: 4468)

角色LoRA:

Yet another Nahida(Genshin Impact) LoRA(id: 16923)

畫(huà)風(fēng)LoHA:

Style | Boys – Glassy and Glaze (FATA)(id33406)

負(fù)面Embedding:

EasyNegative(id7808)
badhandv4(id16993)

模型種類與安裝請(qǐng)看:

@秋葉aaaki 【AI繪畫(huà)】全部模型種類總結(jié) / 使用方法 / 簡(jiǎn)易訓(xùn)練指導(dǎo)——魔導(dǎo)緒論

https://www.bilibili.com/read/cv21362202

1.4.1.2.????????? 插件選取

webUI插件安裝方法請(qǐng)見(jiàn):

@秋葉aaaki 【AI繪畫(huà)】插件安裝/更新/設(shè)置/卸載教程:基礎(chǔ)教程補(bǔ)完計(jì)劃

https://www.bilibili.com/read/cv22316068

本方法使用到的插件有:

? LyCORIS

用于特定畫(huà)風(fēng)模型(LoHA)的使用,下載安裝即可,無(wú)需設(shè)置。

非必須,不使用特定畫(huà)風(fēng)模型可不用

https://github.com/KohakuBlueleaf/LyCORIS

? LoRA Block Weight

用于控制LoRA每層權(quán)重,防止臉崩、畫(huà)風(fēng)過(guò)擬合等。

非必須,不細(xì)調(diào)可不用

https://github.com/hako-mikan/sd-webui-LoRA-block-weight

1.4.1.3.????????? 確認(rèn)模型參數(shù)

底模作者推薦參數(shù)
LoRA作者推薦參數(shù)
LoRA作者推薦觸發(fā)詞

根據(jù)模型作者推薦和自己的電腦配置設(shè)置好對(duì)應(yīng)參數(shù)。

步數(shù)(1)現(xiàn)在不需要太多;分辨率(3)不要設(shè)置太高;批次數(shù)(4)看顯卡能不能跑再調(diào)高,不能就默認(rèn)1。

增加&刪減提示詞(1、2)開(kāi)始抽卡(3)。

? 保證跑圖速度,節(jié)省時(shí)間、提高效率

? 以“多”來(lái)提高生成圖擊中創(chuàng)造者審美的幾率

? 用來(lái)訓(xùn)練模型的圖通常不會(huì)太大,如果在最開(kāi)始使用高分辨率,可能會(huì)導(dǎo)致有些模型跑出的畫(huà)面被過(guò)多細(xì)節(jié)或奇怪的東西填滿,反而沒(méi)有很好的效果

? 顯存不夠大,顯卡不夠強(qiáng)

1.4.2.? PART 2 圖生圖

目標(biāo):提高單張圖質(zhì)量。

1.4.2.1.????????? 豐富圖片細(xì)節(jié)

挑選幾張看上去還可以的拖入【圖片信息】。

比如這張↓

這張↓

還有這張↓

點(diǎn)擊【>>圖生圖】

設(shè)置好參數(shù),在顯卡允許的范圍內(nèi)等比拉高分辨率(4),步數(shù)可以調(diào)高(2)。

想要圖像基本保持不變,(6)重繪幅度在0.5-,建議縮放模式(1)選擇【拉伸】。

想要改變畫(huà)風(fēng)&動(dòng)作,(6)重繪幅度在0.5+,建議縮放模式(1)選擇【直接縮放 (放大潛變量) 】。

增刪提示詞開(kāi)始跑圖。

通常通過(guò)調(diào)整重繪幅度(6)、修改提示詞相關(guān)性(5)、增刪風(fēng)格LoRA,來(lái)控制出圖的效果,請(qǐng)創(chuàng)造者們多多嘗試。

1.4.2.2.????????? 細(xì)修

繼續(xù)挑選喜歡的圖細(xì)化。

點(diǎn)擊【>>局部重繪】

涂黑需要重繪的部分。(這張圖的手、眼沒(méi)有問(wèn)題,所以單修復(fù)腳。)

如果手、腳、眼都有問(wèn)題,建議分別單獨(dú)修復(fù)(如比修復(fù)完眼后,再把修復(fù)好的那一張拖進(jìn)來(lái)繼續(xù)修復(fù)手),防止隨機(jī)抽出來(lái)的圖總是只有一部分是滿意的,而導(dǎo)致效率極低。

局部重繪時(shí)使用【DDIM】采樣效果會(huì)好一些,重繪區(qū)域(3)可以使用【僅蒙版】,會(huì)更有效一點(diǎn),但會(huì)有跟整體畫(huà)風(fēng)不統(tǒng)一的風(fēng)險(xiǎn),重繪幅度(8)需要調(diào)低。如果是畫(huà)空白區(qū)域而不是改圖,記得把蒙版蒙住的內(nèi)容(2)改為【填充】或【潛變量噪聲】很多設(shè)置參數(shù)都可以自己改一下試試效果。

1.4.2.3.????????? 防止畫(huà)面過(guò)飽和的小技巧

二次修圖時(shí)使用相同的分辨率會(huì)很快導(dǎo)致畫(huà)面過(guò)飽和。

稍微放大縮小分辨率可以有效避免這個(gè)問(wèn)題。

1.4.2.4.????????? 改變畫(huà)風(fēng)的小技巧(LoRA Block Weight)

由于不同的LoRA擅長(zhǎng)的部分不一樣,所以在多LoRA聯(lián)合作用時(shí),需要使用LoRA Block Weight插件來(lái)避免在不必要的地方相互污染。

用法很簡(jiǎn)單,安裝完畢重啟后,勾選【啟用】。(不需要管啟用后面的英文為什么不一樣,這是可以自己設(shè)置的預(yù)設(shè))

隨后在提示詞中使用LoRA時(shí),加上半角冒號(hào),再加創(chuàng)造者想要的分層權(quán)重即可。

舉個(gè)例子:

Glassy and Glaze這個(gè)LoRA是一個(gè)精致透亮畫(huà)風(fēng)的LoRA,非常擅長(zhǎng)改景物。

當(dāng)嘗試使用它改變畫(huà)風(fēng)時(shí),我們不希望它影響到角色的臉和衣服。

所以就把正常使用LoRA時(shí)的寫(xiě)法:

<LoRA:yetAnotherNahidaGenshin_nahidAV3:1>, <LoRA:Style_GlassyandGlaze (FATA)_v1.0:1>

改為

<LoRA:yetAnotherNahidaGenshin_nahidAV3:1:1,1,1,1,1,0,0,0,1,1,1,1,1,1,1,0,0>, <LoRA:Style_GlassyandGlaze (FATA)_v1.0:1:1,0,0,0,0,0,0,0,0,0,0,0,1,1,1,1,1>

我們選取這張圖來(lái)做實(shí)驗(yàn),放3張效果對(duì)比圖:

無(wú)畫(huà)風(fēng)LoRA
有畫(huà)風(fēng)LoRA,有分層權(quán)重
有畫(huà)風(fēng)LoRA,無(wú)分層權(quán)重

預(yù)設(shè)可以在【weights setting】(1)里自己設(shè)置,格式就是“預(yù)設(shè)名+半角冒號(hào)+分層權(quán)重”(2),改完點(diǎn)擊【save presets】(3),再點(diǎn)擊【reload tags】(4)即可。

使用的時(shí)候就可以改成<LoRA名:總權(quán)重:預(yù)設(shè)名>,如<LoRA:Style_GlassyandGlaze (FATA)_v1.0:1: Color>,而不必輸入整串權(quán)重。

不過(guò)這樣保存下來(lái)的圖片信息就只有預(yù)設(shè)名,不方便他人使用,不利傳播。所以建議保留整串權(quán)重,也方便隨時(shí)修改。大家可以把預(yù)設(shè)當(dāng)備忘錄。

權(quán)重共有17層,簡(jiǎn)單說(shuō),前段影響衣服和背景,中段影響動(dòng)作與臉,后段影響畫(huà)風(fēng)。

關(guān)于LoRA Block Weight的原理和其他預(yù)設(shè)參數(shù),可以看:

@大江戶戰(zhàn)士 【AI繪畫(huà)】LoRA進(jìn)階用法:分層控制

https://www.bilibili.com/video/BV1Wv4y157NH/

1.4.3.? PART 3 高清修復(fù)

目標(biāo):讓圖片變成高分辨率。

多次調(diào)整參數(shù)對(duì)比修復(fù)結(jié)果之后,圖片達(dá)到一個(gè)還算可以的程度,拖到【附加功能】標(biāo)簽頁(yè)(1)里,設(shè)置好參數(shù)(2、3)點(diǎn)擊【生成】(4),就可以得到一張4k高清圖了~

關(guān)于Upscaler不同的參數(shù),可以參考:

@秋葉aaaki 【AI繪畫(huà)】老婆2秒一鍵變高清!圖片放大教程 AI重畫(huà)拯救超低分辨率圖片 NovelAI

https://www.bilibili.com/video/BV1ne411A7TJ/

1.5.? 分別說(shuō)說(shuō)它的優(yōu)點(diǎn)和缺點(diǎn)

1.5.1.? 優(yōu)點(diǎn)

? 非常適合可以直接使用大量提示詞按需精準(zhǔn)出圖的大佬,可以充分發(fā)揮在提示詞方面的極大優(yōu)勢(shì),出圖迅速。

? 能夠比較完整的保留圖片信息,方便下次繼續(xù)使用或復(fù)刻。

? 門(mén)檻低,簡(jiǎn)單方便易上手,只要沒(méi)有特殊要求,任何人都能跑出整體比較好看的圖。

1.5.2.? 缺點(diǎn)

? 單純使用局部重繪進(jìn)行修改,費(fèi)時(shí)費(fèi)力且效果不佳。

? 構(gòu)圖、角色動(dòng)作、背景環(huán)境隨機(jī)性大,不易控制。

? 基本沒(méi)有插件參與,不適合跑多人圖。

?


2.?? AI參與度70%

2.1.? 請(qǐng)用一句話概括它

深度圖+骨骼圖控制畫(huà)面結(jié)構(gòu)與角色動(dòng)作,可跑多人圖。

2.2.? 它適合我用嗎?

如果創(chuàng)造者認(rèn)領(lǐng)以下任何標(biāo)簽之一,那么就可以嘗試使用這種方法:

? 需要復(fù)刻某張圖的結(jié)構(gòu)

? 想制作多人圖

? 需要把握畫(huà)面布局,控制角色動(dòng)作

? 玩梗、惡搞

2.3.? 請(qǐng)展示一下成果

parameters
1girl, solo, nahida_genshin,(((((cross-shaped pupils))))),<lora:yetAnotherNahidaGenshin_nahidAV3:0.9>
Negative prompt: EasyNegative, badhandv4
Steps: 20, Sampler: DDIM, CFG scale: 8, Seed: 1685908459, Size: 1600x640, Model hash: a074b8864e, Model: C2_B_Counterfeit-V2.5_pruned, Denoising strength: 0.75, Clip skip: 2, ENSD: 31337, Mask blur: 4, ControlNet-0 Enabled: True, ControlNet-0 Module: none, ControlNet-0 Model: control_depth-fp16 [400750f6], ControlNet-0 Weight: 1.1, ControlNet-0 Guidance Start: 0.2, ControlNet-0 Guidance End: 1
postprocessing
Postprocess upscale by: 2, Postprocess upscaler: ESRGAN_4x

2.4.? 具體要怎么做?

2.4.1.? PART 1 前期準(zhǔn)備

目標(biāo):下載好模型,尋找到素材,安裝、配置好相關(guān)插件。

2.4.1.1.????????? 模型選擇

增加了一個(gè)角色LoRA的使用:

Rukkhadevata/大慈樹(shù)王 TI+LORA Anime/Realistic Genshin 原神(id:28703)

2.4.1.2.????????? 素材搜集

使用到的素材:

? 一張想要模仿結(jié)構(gòu)的參考圖

? 源自該參考圖的骨骼圖

為了減少爭(zhēng)議與糾紛,建議選?。?/strong>

可免費(fèi)商用的圖片

doyoudo的資源導(dǎo)航

https://www.doyoudo.com/resources

已無(wú)著作權(quán)保護(hù)的世界名畫(huà)。

WikiArt

https://www.wikiart.org/

版權(quán)說(shuō)明(1)在圖片下方,高清圖點(diǎn)擊Wikipedia鏈接(2)下載即可。

因?yàn)槭褂蒙疃葓D的關(guān)系,畫(huà)面結(jié)構(gòu)基本是1:1復(fù)制的,所以建議謹(jǐn)慎選取諸如Pinterest、小紅書(shū)、花瓣等屬于用戶個(gè)人收集類圖片。

我們這次只做繪制同人圖使用,參考圖選擇的是米開(kāi)朗基羅的創(chuàng)造亞當(dāng)。

2.4.1.3.????????? 插件選取

本方法使用到的插件有:

? ControlNet

用于骨骼圖、深度圖的加載與使用。(最新秋葉大佬整合包v4已預(yù)置)

https://github.com/lllyasviel/ControlNet-v1-1-nightly

ControlNet模型下載

https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main

? Openpose Editor

用于在平面內(nèi)調(diào)整人物骨骼,產(chǎn)出可用的骨骼圖。

https://github.com/fkunn1326/openpose-editor

? Latent Couple

用于實(shí)現(xiàn)多人同框

https://github.com/opparco/stable-diffusion-webui-two-shot

? Composable LoRA

用于防止多LoRA相互污染

https://github.com/opparco/stable-diffusion-webui-composable-LoRA

2.4.1.4.????????? ControlNet插件多開(kāi)配置

在【設(shè)置】標(biāo)簽頁(yè)(1),【ControlNet】選項(xiàng)卡(2)下,調(diào)整【Multi ControlNet 的最大網(wǎng)絡(luò)數(shù)量】滑塊參數(shù)(3)。數(shù)量看具體需求,一般3個(gè)就夠用了。點(diǎn)【保存設(shè)置】(4)后,【重啟 WebUI】(5)。

2.4.1.5.????????? 骨骼圖制作(Openpose Editor)

在【OpenPose 編輯器】標(biāo)簽(1)下,點(diǎn)擊【Detect from Image】(2),加載參考圖。

自動(dòng)識(shí)別的只有一套骨骼,點(diǎn)擊【添加】(1)再添加一套。調(diào)整骨骼和分辨率(2),點(diǎn)擊【保存為 PNG圖片】(3)備份骨骼圖,點(diǎn)擊【>>文生圖】(4)。

2.4.2.? PART 2 文生圖

目標(biāo):跑出一張整體還不錯(cuò)的基本圖。

2.4.2.1.????????? ControlNet插件使用

2.4.2.1.1. 骨骼圖使用

來(lái)到【文生圖】的【ControlNet】,【Control Model - 0】標(biāo)簽(1)勾選【啟用】(2),【Pixel Perfect】(3)。

設(shè)置如圖:預(yù)處理器為無(wú)(4),模型選openpose(5),權(quán)重(6)可以根據(jù)需求調(diào)節(jié)。

2.4.2.1.2. 深度圖使用

【Control Model - 1】標(biāo)簽(1)勾選【啟用】(3),【Pixel Perfect】(4),拖入?yún)⒖紙D(2)。

設(shè)置如圖:預(yù)處理器為【depth zoe】(5),模型選【depth】(6),權(quán)重(7)按需來(lái)。

2.4.2.2.????????? 可自組LoRA的使用(Composable LoRA)

勾選【啟用】即可。

2.4.2.3.????????? 潛變量成對(duì)的使用(Latent Couple)

勾選【啟用】。

在【蒙版】標(biāo)簽頁(yè)中,拖入?yún)⒖紙D。把其中一個(gè)人涂黑,點(diǎn)擊【I've finished my sketch】。

在General Prompt中輸入未涂黑部分的提示詞(1),在Prompt for this mask中輸入涂黑部分的提示詞(2),點(diǎn)擊【Prompt Info Update】(3),設(shè)置好寬高(建議把例圖實(shí)際尺寸等比縮?。?。

2.4.2.4.????????? 后續(xù)設(shè)置

可以看到提示詞(1)部分已經(jīng)自動(dòng)同步了,不要改動(dòng)格式。如果需要改動(dòng)提示詞,建議回到【潛變量成對(duì)】插件中改動(dòng)防止混亂,改完同樣點(diǎn)擊【Prompt Info Update】即可。

按照自己的偏好設(shè)置好其他參數(shù)(2),開(kāi)始跑圖(3)。

如果想跑3人及以上的圖,需要進(jìn)入【潛變量成對(duì)】插件的Rectangular標(biāo)簽,具體參數(shù)配置可參考

@大江戶戰(zhàn)士 BV1UY4y1U7jX 【AI繪畫(huà)】畫(huà)出自己想要的CP圖/多人圖:Latent couple、Composable LoRA以及ControlNet的搭配使用

https://www.bilibili.com/video/BV1UY4y1U7jX

2.4.3.? PART 3 圖生圖

目標(biāo):提高單張圖質(zhì)量。

步驟與AI參與度100%時(shí)的基本一致。

需要注意的是,【可自組LoRA】和【潛變量成對(duì)】?jī)蓚€(gè)插件依然需要延續(xù)part2文生圖的設(shè)置,但【ControlNet】可以不使用,讓AI自動(dòng)修補(bǔ)一下不合理的地方。

演示一下,比如這張圖,左下角的納西妲被骨架圖和深度圖強(qiáng)行拉伸了體型。

圖生圖里調(diào)低重繪幅度,不使用【ControlNet】,就會(huì)按照LoRA把納西妲的體型改的正常一點(diǎn)。

對(duì)圖像質(zhì)量要求比較高的創(chuàng)造者可以根據(jù)角色體型調(diào)整骨骼,在圖生圖部分單獨(dú)使用骨骼圖。(深度圖就不要放了,調(diào)整后的骨骼與原參考圖不一致,但深度圖無(wú)法隨之調(diào)整,會(huì)打架。)

2.4.3.1.????????? 挑選圖生圖適用圖片的小技巧

需要顧忌的地方:

? 肢體數(shù)量

? 動(dòng)作

? 環(huán)境色彩

? 構(gòu)圖

不需要顧忌的地方:

? 面部崩壞(自動(dòng)修復(fù),或去除可疑LoRA,或局部重繪)

? 表情奇怪(自動(dòng)修復(fù),或去除可疑LoRA,或局部重繪)

? 過(guò)飽和(可通過(guò)改變分辨率解決)

? 不太像目標(biāo)角色,服飾錯(cuò)誤(可通過(guò)提高LoRA權(quán)重解決)

2.5.? 分別說(shuō)說(shuō)它的優(yōu)點(diǎn)和缺點(diǎn)

2.5.1.? 優(yōu)點(diǎn)

? 可以跑多人圖

? 可以控制整體結(jié)構(gòu)和人物動(dòng)作

? 能夠比較完整的保留圖片信息,方便下次繼續(xù)使用或復(fù)刻

? 門(mén)檻較低,不需要掌握較為專業(yè)的其他領(lǐng)域的知識(shí)

2.5.2.? 缺點(diǎn)

? 缺乏細(xì)節(jié)控制

? 背景環(huán)境隨機(jī)性大

? 單純使用局部重繪進(jìn)行隨機(jī)修改,費(fèi)時(shí)費(fèi)力且效果不佳

? 畫(huà)面合理性有比較大的欠缺

?


3.?? AI參與度50%

3.1.? 請(qǐng)用一句話概括它

AI語(yǔ)義分割+骨骼+手腳深度圖完全控圖,人工ps修圖。

3.2.? 它適合我用嗎?

如果創(chuàng)造者認(rèn)領(lǐng)以下任何標(biāo)簽之一,那么就可以嘗試使用這種方法:

? 對(duì)構(gòu)圖有一定了解,需要構(gòu)圖的自由度

? 想要在不完全借鑒參考圖的前提下,把握畫(huà)面布局,控制角色動(dòng)作

? 想要按照自己心意擺放角色、替換背景

? 有修圖基礎(chǔ),需要修圖來(lái)保證圖片質(zhì)量

? 需要做前期概念圖

3.3.? 請(qǐng)展示一下成果

parameters
feet,from behind,masterpiece, best quality, 1girl, solo, nahida_genshin,cross-shaped pupils,default_dress,green cape, <lora:yetAnotherNahidaGenshin_nahidAV3:1>
Negative prompt: EasyNegative,badhandv4,extra fingers, fewer fingers
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 20, Seed: 3428597529, Size: 1024x1536, Model hash: a074b8864e, Model: C2_B_Counterfeit-V2.5_pruned, Denoising strength: 0.5, Clip skip: 2, ENSD: 31337, Mask blur: 4, Dynamic thresholding enabled: True, Mimic scale: 10, Threshold percentile: 100, CFG mode: Half Cosine Up, CFG scale minimum: 3

3.4.? 具體要怎么做?

3.4.1.? PART 1 前期準(zhǔn)備

目標(biāo):確定主題,收集素材,安裝、配置相關(guān)插件。

3.4.1.1.????????? 主題構(gòu)思

? 角色:納西妲單人+龍

? 背景:廢墟,可以有壓迫感,但焦點(diǎn)必須在納西妲身上

? 構(gòu)圖:橫豎皆可,最好不要太無(wú)趣

? 元素:主線中的“火種”,最好有一點(diǎn)點(diǎn)特效

? 其他要求:納西妲在整個(gè)畫(huà)面占比可以小一點(diǎn),但不能看不清楚

3.4.1.2.????????? 素材搜集

使用到的素材:

? 一張或多張可以參考構(gòu)圖的圖片

? 一張或多張人物動(dòng)作圖片或人物骨骼圖

人物動(dòng)作圖片可以從練習(xí)速寫(xiě)用的人體網(wǎng)站尋找;

Line-of-action

https://line-of-action.com/
Motions

https://www.bodiesinmotion.photo/motions

也可以在模型站搜索現(xiàn)成的骨骼,篩選poses,挑自己喜歡的下載;

或者使用3D人體模型擺自己喜歡的動(dòng)作。

無(wú)限人偶

http://www.pofiapp.com/
DesignDoll

https://doll-a.net/terawell/

3.4.1.3.????????? 插件選取

本方法使用到的插件有:

? ControlNet

用于語(yǔ)義分割圖、骨骼圖、手腳深度圖的加載與使用。

? 3D Openpose Editor

用于在3d里調(diào)整人物骨骼,產(chǎn)出可用的骨骼圖。(也提供網(wǎng)頁(yè)版,可在線編輯)

(用不慣可以繼續(xù)使用Openpose Editor)

https://github.com/nonnonstop/sd-webui-3d-open-pose-editor

3D Openpose Editor在線版-點(diǎn)【Click me to get editor】

https://github.com/ZhUyU1997/open-pose-editor

? Dynamic Thresholding (CFG Scale Fix)

用于高CFG時(shí)花圖的修復(fù)。

非必須,可不用。

https://github.com/mcmonkeyprojects/sd-dynamic-thresholding

關(guān)于骨骼編輯器的選擇:

Openpose Editor是平面骨骼圖,直接拖拽關(guān)節(jié)點(diǎn)即可完成骨骼調(diào)整,簡(jiǎn)單快捷。

3D Openpose Editor是3d骨骼圖,通過(guò)xyz轉(zhuǎn)動(dòng)實(shí)現(xiàn)骨骼調(diào)整,自由度較高,但不易上手,適合會(huì)一點(diǎn)3d基礎(chǔ)操作的創(chuàng)造者。

建議大家根據(jù)自己的實(shí)際需求選用。

3.4.1.4.????????? 骨骼圖制作(3D Openpose Editor)

這里演示的是DesignDoll和3D Openpose Editor的搭配使用,流程比較復(fù)雜,但操作空間大,自由度高。

DesignDoll軟件本身是付費(fèi)的,但官方動(dòng)作參考中的預(yù)覽圖是免費(fèi)的。

Doll Atelier

https://doll-a.net/terawell/

在首頁(yè)下拉選擇需要的動(dòng)作分類。

或者在右上角搜索欄進(jìn)行動(dòng)作檢索。

搜索支持日文,但由于日文里通常帶有漢字,所以對(duì)國(guó)人來(lái)說(shuō)可以直接使用某個(gè)動(dòng)作的單字進(jìn)行搜索(比如手を伸ばす的意思是伸手,單搜“伸”,也是能夠搜索出伸手動(dòng)作的,比查翻譯要方便)。

鼠標(biāo)滑動(dòng)到與預(yù)期動(dòng)作差不多的動(dòng)作預(yù)覽上,點(diǎn)擊左邊【圓形鏈接】圖標(biāo)。

下載預(yù)覽圖片。

在webUI里使用【3D Openpose Editor】插件(1),,插件內(nèi)右邊【language】(2)可以改中文。點(diǎn)擊【文件】(3) – 【從圖片中檢測(cè)】(4)

調(diào)整自動(dòng)識(shí)別出的骨骼為自己想要的動(dòng)作。

(基礎(chǔ)調(diào)節(jié):長(zhǎng)按左鍵旋轉(zhuǎn)視角,長(zhǎng)按右鍵移動(dòng)視角,滾輪縮放視角。點(diǎn)選彩色線段,調(diào)整骨骼繞關(guān)節(jié)點(diǎn)xyz軸旋轉(zhuǎn)。右側(cè)參數(shù)可調(diào)整某段骨骼長(zhǎng)短。)

☆不小心重啟webUI了,再打開(kāi)可以嘗試點(diǎn)擊【恢復(fù)上次場(chǎng)景】來(lái)繼續(xù)編輯。

改好之后點(diǎn)【生成】,會(huì)自動(dòng)跳轉(zhuǎn)到【發(fā)送到 ControlNet】標(biāo)簽(1)。

下載骨骼(2)和手腳深度圖(3)存檔,點(diǎn)擊【>>文生圖】(4)。

轉(zhuǎn)到文生圖,設(shè)置如圖?!綜ontrolNet】插件【Control Model – 0】標(biāo)簽頁(yè)(1)勾選【啟用】(2),【Pixel Perfect】(3),預(yù)處理器為無(wú)(4),插件模型為骨骼(5),調(diào)整權(quán)重(6)。(僅骨骼即可,最多加一個(gè)手腳的深度圖)

增加提示詞(1),大概調(diào)一下設(shè)置(2),嘗試生成角色(3)。

效果還不錯(cuò),大體是我們需要的姿勢(shì),保留這張圖。(這里的圖不需要細(xì)調(diào))

3.4.1.5.????????? 語(yǔ)義分割圖的制作(ControlNet1.1

根據(jù)主題,我們從之前提到的免費(fèi)圖片庫(kù)Unsplash中找到了這兩張圖,打算結(jié)合一下。

Unsplash

https://unsplash.com/

把兩張參考圖和剛剛生成的角色圖分別拖入文生圖的ControlNet三個(gè)標(biāo)簽中,設(shè)置都一樣,如圖所示。勾選【啟用】(1),【無(wú)提示詞模式】(2),【Pixel Perfect】(3),預(yù)處理器選擇seg_ofade20k(4),模型選擇seg(5)。

如果創(chuàng)造者下載的是秋葉大佬的整合包,那么有可能沒(méi)有ControlNet可用的seg模型,需要先去huggingface下載:

https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main

放到啟動(dòng)器根目錄的\models\ControlNet里。

不用寫(xiě)提示詞(1),調(diào)整好寬高(2),點(diǎn)擊生成(3)。保存跑出的三張語(yǔ)義分割圖(4)。

把保存的語(yǔ)義分割圖和骨架圖拖進(jìn)PS里(或者任何圖片編輯工具)。

使用畫(huà)筆工具按照“基于ADE20k語(yǔ)義分割-150色”的顏色修改圖片。(以RGB顏色值和16進(jìn)制顏色碼為準(zhǔn))

-中文在線版,google云盤(pán)

https://docs.google.com/spreadsheets/d/e/2PACX-1vTHnI4vMtYyNgYEtk38BKSH2vfn1P1xwnC75XdhxZHokZ8j0zCW1TKA8qUwzs2AX3giXkuRLdyfavId/pubhtml

(源自@AugmentedRealityCat https://github.com/Mikubill/sd-webui-ControlNet/discussions/445)

-中文下載版

@大江戶戰(zhàn)士 【AI繪畫(huà)】強(qiáng)大的構(gòu)圖工具:Seg(ControlNet)語(yǔ)義分割控制網(wǎng)絡(luò)(簡(jiǎn)介里)

https://www.bilibili.com/video/BV1bM411x7nD

改完后拉低透明度看看骨骼圖和手腳深度圖能不能跟語(yǔ)義分割圖正常對(duì)上。

3.4.2.? PART 2 文生圖

目標(biāo):跑出一張整體還不錯(cuò)的基本圖。

把語(yǔ)義分割圖、骨骼圖、手腳深度圖分別保存為三張大小一致的圖片。

文生圖【ControlNet】里,【Control Model - 0】標(biāo)簽頁(yè)(1)放語(yǔ)義分割圖(2),模型選seg(6),勾選【Pixel Perfect】(4);【Control Model - 1】標(biāo)簽頁(yè)放骨骼圖,模型選openpose;【Control Model - 2】標(biāo)簽頁(yè)放手腳深度圖,模型選depth。其他設(shè)置都一樣,預(yù)處理器都是無(wú),權(quán)重根據(jù)跑圖效果調(diào)。

調(diào)整提示詞和其他設(shè)置,開(kāi)始跑圖。

挑選一下跑出來(lái)的圖就可以拉進(jìn)圖生圖了。

3.4.3.? PART 3 圖生圖

目標(biāo):提高單張圖質(zhì)量。

可以延續(xù)之前圖生圖的方法,在這一步里加入畫(huà)風(fēng)LoRA。

如果想要保持構(gòu)圖和角色動(dòng)作不變,依然需要用到語(yǔ)義分割圖、骨骼圖、手腳深度圖來(lái)控制。權(quán)重可以根據(jù)需要設(shè)置的低一點(diǎn),讓AI全方位美化一下。

對(duì)于演示的圖片,我們的需求是保留整體構(gòu)圖、優(yōu)化角色動(dòng)作,所以設(shè)置的權(quán)重依次是1.0,0.4,0.6。

這時(shí)候前期如果做的沒(méi)問(wèn)題,選題不是太放飛,基本就可以出圖了,而且手腳眼基本都不會(huì)有太大問(wèn)題。

如果手還是有問(wèn)題,需要單獨(dú)修,或者想要換一個(gè)手部動(dòng)作。

用ControlNet簡(jiǎn)筆畫(huà)版請(qǐng)看

@大江戶戰(zhàn)士 【AI繪畫(huà)】如何簡(jiǎn)單又快速地利用ControlNet修手

https://www.bilibili.com/video/BV1Ej411g7R4/

使用depth libray插件深度圖版請(qǐng)看

@AI次世代 【AI繪畫(huà)進(jìn)階教程】姿勢(shì)自由_骨骼讀取_手部動(dòng)作 ControlNet軟件好幫手 openpose插件? posex插件? Depth Library?

https://www.bilibili.com/video/BV17L411k7Zu/

3.4.4.? PART 4 PS修圖+圖生圖(非必須)

目標(biāo):精修出一張合理、精致的圖。

3.4.4.1.? PS修圖

首先說(shuō)明,這一步需要一點(diǎn)PS基礎(chǔ)哦~

好的,讓我們挑選一張稍微好一點(diǎn)的圖,拉進(jìn)PS里,修改一下不合理的地方。

指定使用PS進(jìn)行修圖,是因?yàn)樾掳鍼S摳圖非常方便。PS2023里也加入了語(yǔ)義識(shí)別的功能。在界面左側(cè)工具欄,右鍵點(diǎn)擊【魔棒工具】,(套索下面那個(gè),別管它默認(rèn)叫什么)選擇【對(duì)象選擇工具】。

鼠標(biāo)滑過(guò),語(yǔ)義識(shí)別到同組會(huì)變粉,點(diǎn)擊要調(diào)整的主體,即可選中。

選中的狀態(tài)下,在左側(cè)工具欄選擇【矩形選框工具】,按住Alt,框選不需要的部分,即可減去其他選區(qū),只留需要選擇的部分。

比如這里只需要調(diào)整小腿。

修改的時(shí)候記得保留一下原圖,多建幾個(gè)圖層。

只需要涂色塊即可,不需要做太細(xì)。嫌麻煩可以把之前跑出來(lái)的局部比較好的圖替換上。

調(diào)完后的空白區(qū)域怎么辦呢?還記得之前保留的原圖嗎?再?gòu)?fù)制一層,先關(guān)掉修改圖的顯示,依然通過(guò)對(duì)象選擇工具選擇主體,點(diǎn)擊右鍵選擇刪除和填充選區(qū)。

看一眼效果

背景層+修改后的圖

修改完成,另存為一張新圖。(注意不要覆蓋導(dǎo)致原圖丟失)

3.4.4.2.? 圖生圖

使用原圖的圖片信息和種子+調(diào)整好的圖。

注意,這里的設(shè)置建議使用【拉伸】,而非【直接縮放 (放大潛變量) 】,重繪幅度調(diào)小一點(diǎn)。

由于角色動(dòng)作有變動(dòng),所以就不再使用骨骼圖和深度圖了,只留語(yǔ)義分割,權(quán)重調(diào)低。

對(duì)圖像要求比較高的創(chuàng)造者可以重新做一張骨骼圖和手腳深度圖。

這一步就不要在提示詞里新增風(fēng)格LoRA了,否則白干警告。

如果圖生圖實(shí)現(xiàn)不了需求,可以使用局部重繪一點(diǎn)一點(diǎn)調(diào),與之前的方法里提到的一樣。

此外,ControlNet1.1版本中加入了局部重繪模型,可以搭配使用提高效果。設(shè)置如圖,預(yù)處理器選擇inpaint,模型inpaint。

3.4.4.3.????????? 動(dòng)態(tài)閾值的使用Dynamic Thresholding (CFG Scale Fix)

由于修復(fù)的時(shí)候經(jīng)常容易把提示詞給修沒(méi),就需要拉高CFG,而單純拉高容易導(dǎo)致畫(huà)面過(guò)飽和,所以需要CFG修復(fù)來(lái)平衡。常用參數(shù)設(shè)置如下:勾選【啟用動(dòng)態(tài)閾值(提示詞相關(guān)性修復(fù) - CFG Scale Fix)】(1),在【高級(jí)選項(xiàng)】(2)中,【CFG Scale Scheduler】選擇【Half Cosine Up】(3),【Minimum value of the CFG Scale Scheduler】滑塊數(shù)值(4)在2~4之間。

注意【模擬提示詞相關(guān)性(Mimic CFG Scale) 】(5)不要與【提示詞相關(guān)性(CFG Scale) 】(6)相差過(guò)大(超過(guò)10)。

3.5.? 分別說(shuō)說(shuō)它的優(yōu)點(diǎn)和缺點(diǎn)

3.5.1.? 優(yōu)點(diǎn)

? 可以實(shí)現(xiàn)場(chǎng)景、構(gòu)圖、角色動(dòng)作全控

? 可以調(diào)整更多細(xì)節(jié)

3.5.2.? 缺點(diǎn)

? 最終成圖無(wú)圖片信息

? 尋找素材、反復(fù)修圖比較費(fèi)時(shí)費(fèi)力

? 需要有一定ps基礎(chǔ)

? 畫(huà)面合理性依然有欠缺

?


4.?? AI參與度30%

4.1.? 請(qǐng)用一句話概括它

人工傳統(tǒng)繪畫(huà)草稿+線稿+底色,AI細(xì)化上色。

4.2.? 它適合我用嗎?

如果創(chuàng)造者認(rèn)領(lǐng)以下任何標(biāo)簽之一,那么就可以嘗試使用這種方法:

? 有至少達(dá)到行業(yè)標(biāo)準(zhǔn)的繪畫(huà)基礎(chǔ)

? 需要做角色&立繪設(shè)計(jì)(不包含普通OC,普通OC可以使用三視圖LoRA隨機(jī)出)

? 懶得上色

4.3.? 請(qǐng)展示一下成果

parameters
(Masterpiece, best quality, extremely detailed CG, highly detailed, 8k wallpaper, Ultra HD_ 1.2),1girl, solo, smoking pipe, japanese clothes, red kimono,kiseru, smoke, kimono, hair ornament, breasts, hair stick, off shoulder, bare shoulders, cleavage, kanzashi, holding smoking pipe, closed eyes, holding, collarbone, standing, full body, sash,
Negative prompt: EasyNegative, badhandv4
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 2437440079, Size: 1280x1920, Model hash: a074b8864e, Model: C2_B_Counterfeit-V2.5_pruned, Denoising strength: 0.5, Clip skip: 2, ENSD: 31337, ControlNet-0 Enabled: True, ControlNet-0 Module: lineart_standard (from white bg & black line), ControlNet-0 Model: control_v11p_sd15s2_lineart_anime [3825e83e], ControlNet-0 Weight: 0.7, ControlNet-0 Guidance Start: 0, ControlNet-0 Guidance End: 1, ControlNet-1 Enabled: True, ControlNet-1 Module: none, ControlNet-1 Model: control_v11p_sd15_openpose [cab727d4], ControlNet-1 Weight: 1, ControlNet-1 Guidance Start: 0, ControlNet-1 Guidance End: 1
parameters
wings, ((solo)), long hair, white background, barefoot, feathered wings, holding, multiple wings, simple background, blonde hair, angel, angel wings, gold, book, full body, halo, jewelry, white wings, 1girl, white hair,Translucent,backlight
Negative prompt: EasyNegative, badhandv4
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 17, Seed: 2036563997, Size: 1536x1280, Model hash: a074b8864e, Model: C2_B_Counterfeit-V2.5_pruned, Denoising strength: 0.7, Clip skip: 2, ENSD: 31337, Mask blur: 4, ControlNet-0 Enabled: True, ControlNet-0 Module: none, ControlNet-0 Model: control_openpose-fp16 [9ca67cc5], ControlNet-0 Weight: 1, ControlNet-0 Guidance Start: 0, ControlNet-0 Guidance End: 1, ControlNet-1 Enabled: True, ControlNet-1 Module: canny, ControlNet-1 Model: control_canny-fp16 [e3fe7712], ControlNet-1 Weight: 0.3, ControlNet-1 Guidance Start: 0, ControlNet-1 Guidance End: 1, Dynamic thresholding enabled: True, Mimic scale: 7, Threshold percentile: 100, CFG mode: Half Cosine Up, CFG scale minimum: 3

4.4.? 具體要怎么做?

4.4.1.? 插件選取

本方法使用到的插件有:

? ControlNet

用于lineart和骨骼圖的加載與使用。

? Tagger

用于草稿&線稿圖提示詞的反推。(最新秋葉大佬整合包v4已預(yù)置)

https://gitcode.net/ranting8323/stable-diffusion-webui-wd14-tagger

4.4.2.? PART 1 文生圖

目標(biāo):跑出一張還可以的基本圖。

這里拿我們的一位創(chuàng)造者伙伴之前畫(huà)的1張半成品線稿,和1張完成度比較高的已完成底色的畫(huà)來(lái)舉例(已授權(quán))。

把圖片(2)拖進(jìn)【Tag反推(Tagger)】插件(3)里【開(kāi)始反推】(2)提示詞,完成后點(diǎn)擊【>>文生圖】(4)。

有底色的這張也可以直接【>>圖生圖】(1),區(qū)別就是需不需要帶氛圍。

注意看一眼提示詞(2)里有沒(méi)有帶著線稿、黑白稿之類的tag,以及與畫(huà)面本身沖突的tag,把它們刪除。

使用完成后記得點(diǎn)擊【卸載顯存中所有反推模型】(3)卸載模型釋放顯存。

ControlNet【Control Model - 0】(1)放線稿圖(2),勾選【啟用】(3),勾選【Pixel Perfect】(4)。預(yù)處理器為lineart standard(5),模型為lineart anime(6)。

(如果創(chuàng)造者下載的是秋葉大佬的整合包,那么有可能沒(méi)有ControlNet1.1可用的lineart anime模型,需要先去huggingface下載,放到啟動(dòng)器根目錄的\models\ControlNet里。)

【Control Model - 1】放骨骼圖,設(shè)置與之前的方法一致,不再多說(shuō)了。

已上好底色的圖,預(yù)處理器(5)可以選擇lineart anime,模型(6)選擇lineart anime。

調(diào)整好文生圖其他設(shè)置,跑圖。

4.4.3.? PART 2 圖生圖

方法如前述,挑選一張稱心如意的圖。

線稿權(quán)重可以稍微拉低,跑圖。

這里放一下在圖生圖里有沒(méi)有ControlNet參與的對(duì)比效果圖。

只有提示詞


骨骼圖


骨骼圖+線稿

有底色的放兩張直接圖生圖和文生圖+圖生圖的對(duì)比效果圖。

圖生圖
文生圖+圖生圖

好看,但不還原,需要尋找更合適的底模和LoRA(比如可以畫(huà)御姐的)。

所以如果使用AI,就不建議板繪前期畫(huà)太細(xì)了。(白干警告?。?/p>

4.5.? 分別說(shuō)說(shuō)它的優(yōu)點(diǎn)和缺點(diǎn)

4.5.1.? 優(yōu)點(diǎn)

? 節(jié)省繁重上色的時(shí)間。

? 如果模型用得好,可以實(shí)現(xiàn)全控。

4.5.2.? 缺點(diǎn)

? 復(fù)雜一點(diǎn)的線稿基本無(wú)法復(fù)原。

? 需要專業(yè)繪畫(huà)基礎(chǔ)。

? 需要挑選適合的模型,以達(dá)到預(yù)期的畫(huà)風(fēng)。

AI繪畫(huà)教程 | 喂飯級(jí)提高出圖質(zhì)量全流程(Stable Diffusion)的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
伊通| 云和县| 石渠县| 闸北区| 新平| 集安市| 会宁县| 呼图壁县| 平遥县| 文成县| 环江| 韶山市| 措勤县| 兖州市| 平江县| 南澳县| 洪湖市| 青田县| 察哈| 盐山县| 高密市| 富平县| 锡林郭勒盟| 平顶山市| 响水县| 梁山县| 东台市| 临猗县| 东兴市| 东丰县| 东山县| 西峡县| 宜兰县| 宁城县| 保亭| 新宁县| 奇台县| 贵德县| 恭城| 江阴市| 黎城县|