【玩轉(zhuǎn)SD】深度講解SDXL Base+Refiner完整流程(Comfyui)文檔

大家好,我是小志Jason。一個(gè)探索Latent Space的程序員。
今天來深入講解一下SDXL的工作流,順便說一下SDXL和過去的SD流程有什么區(qū)別
?

官方在discord上chatbot測(cè)試的數(shù)據(jù),文生圖覺得SDXL?1.0?Base+Refiner比較好的有26.2占最多,比SDXL 1.0 Base Only 多出4%左右
?
Comfyui工作流:
Base only
Base + Refiner
Base?+ lora?+ Refiner
?
SD1.x, SD2.x, Base only
Conditioning(Text,Image)->Latent Space(Unet)->VAE Decoder->Pixel Image
?

Comfyui Base Only Workflow
?

Sample:
?

SDXL完整出圖流程?Base+refiner
Conditioning(Text,Image)->Latent Space(Base)->Latent Space(Refiner)->VAE Decoder->Pixel Image
?

Comfyui Base(65%~80%)?+ Refiner(35%~20%)?Workflow

Sample:

SDXL 1.0 Base +offset lora(0.4~0.6) + refiner
Conditioning(Text,Image)->Latent Space(Base+lora)->Latent Space(Refiner)->VAE Decoder->Pixel Image
?

Sample:

?Compare:

演示工作流:
鏈接:https://pan.baidu.com/s/1nOMTQHIADV6D0ObaqV4grA
提取碼:7bo9
?
SDXL 1.0工具介紹
ComfyUI?官方推薦
優(yōu)點(diǎn):更靈活的自定義流程,優(yōu)化代碼架構(gòu),占用更少的資源
缺點(diǎn):上手有一定門檻
https://github.com/comfyanonymous/ComfyUI
?
StableSwarmUI?SD官方webui 目前Alpha版本, comfyui底層
優(yōu)點(diǎn):官方維護(hù),支援多顯卡出圖
缺點(diǎn):還在測(cè)試階段
https://github.com/Stability-AI/StableSwarmUI
?
InvokeAI?3.0
優(yōu)點(diǎn):支持節(jié)點(diǎn)式流程,更簡(jiǎn)單易用,以使用者體驗(yàn)出發(fā)
缺點(diǎn):新技術(shù)迭代較慢
https://github.com/invoke-ai/InvokeAI
?
SD.Next
優(yōu)點(diǎn):和Automatic1111類似的界面,重構(gòu)了底層邏輯,更好的兼容SDXL
缺點(diǎn):框架較新,用戶不多
https://github.com/vladmandic/automatic
?
Automatic1111 Web UI
https://github.com/AUTOMATIC1111/stable-diffusion-webui
優(yōu)點(diǎn):使用者眾多,新技術(shù)能比較快的出新插件
缺點(diǎn):占用資源較多,暫時(shí)只支援Base only出圖然后使用refiner模型進(jìn)行img2img 流程
?
A1111只支援Base模型出圖和用Comfyui Base only出圖基本一致

?
Reference:
stable-diffusion-sdxl-1-announcement
https://stability.ai/blog/stable-diffusion-sdxl-1-announcement
?
SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis
https://arxiv.org/pdf/2307.01952.pdf
?
High-Resolution Image Synthesis with Latent Diffusion Models
https://arxiv.org/pdf/2112.10752.pdf
歡迎點(diǎn)贊投幣轉(zhuǎn)發(fā)加群
群號(hào):866612947
驗(yàn)證:小志Jason

?
?