看完這篇文章,你還會用再用AUTOMATIC1111 WebUI嗎?
說起?AUTOMATIC1111?的 Stable diffusion-wbui 這個項目,使用過Stable diffusion的人應(yīng)該無人不知吧,網(wǎng)絡(luò)上基本一邊倒的在使用他家的項目,而且fork量和star量還不?。?/p>
但是AUTOMATIC1111?這個名字總給我一些不靠譜的感覺,雖然它的項目還不錯,如果你進他這個賬號下面,會發(fā)現(xiàn),他還有很多項目,但是都沒有這個項目火。
我在部署stable diffusion的過程中,嘗試了很多項目,也踩了不少坑,最后找到了這個非常令我心儀的項目:SD.Next。這里我要隆重地介紹給大家,相信看完我的文章,你會馬上丟掉AUTOMATIC1111 的webui,為什么這么說呢?
SD.Next 跟 AUTOMATIC1111 WebUI的fork 數(shù)量持平了,而且發(fā)展勢頭更強勁。

SD.Next來源于AUTOMATIC1111?webui,但是提供一些高級特征,
這個項目的github名字叫automatic,而這個名字卻是前面那個項目的賬號名字。聽起來要靠譜一點,而SD.Next應(yīng)該可以叫automatic的別名。。。開個玩笑。
我們直接看他有啥不一般,這里是介紹:

它的界面是這個樣子:

作者整理了13個特征,因為他覺得TOP10 表達不盡興,大家對照著看看就好了,我提幾個我認為不錯的亮點:
UI界面更漂亮,默認是黑色主題,不同于前者的灰白色主題。Ui界面下面有滾動日志輸出,更方便調(diào)試。提交任務(wù)支持加入隊列按鈕操作等。
支持多個backend,在前者的基礎(chǔ)上增加了diffusers。diffusers是一個開源的Python代碼庫,為使用擴散模型進行圖像生成提供了一致的接口。最流行的擴散模型是Stable Diffusion。當(dāng)前唯一支持Stable diffusion xl的就是diffusers,所以大家知道SD.Next支持diffusers意味著什么了吧。
支持多種擴散模型,除了SD.Next支持Stable Diffusion,還支持SD-XL, Kandinsky, DeepFloyd IF,而 DeepFloyd IF這個擴散模型在圖像中精確生成文字方面有著重要地位。關(guān)于這個模型的詳細信息,后續(xù)我會另外介紹。Stable Diffusion 包括 v1,v2都支持的,也就是繼承了 stable diffusion webui已有的功能。
跨平臺支持,包括Windows / Linux / MacOS with CPU / nVidia / AMD / IntelArc / DirectM。
其他系統(tǒng)優(yōu)化,比如提示詞解析能力,隊列管理,Lora等模型訓(xùn)練增強,企業(yè)級的日志和接口增強,系統(tǒng)自更新和依賴管理,生態(tài)兼容等
關(guān)于這個項目的目標(biāo),作者也說了:為了跟進最新的文生圖方面的技術(shù),同時提供跨平臺能力,保證在不同平臺上的性能、直觀易用和一致性的體驗。
為追求技術(shù),跟易用性往往不容易那么兼顧,如果你不像我這樣在意這些特征,也可以看看InvokeAI?這個項目,她部署更自動化和易用。當(dāng)然如果你已經(jīng)習(xí)慣了 stable duffusion ui,那么你上手SD.Next 一點兒問題也沒有。
如果你想嘗試?InvokeAI?,歡迎留言和支持,我接下來看反饋情況,決定要不要寫這方面的文章。
SD.Next的界面,前面大家也看了,她內(nèi)置了這些功能,比如常用的文生圖,圖生圖,圖像處理,擴展管理,openpose,模型。訓(xùn)練等:

接下來,我們來看怎么部署和使用SD.Next吧。
首先,你得先準(zhǔn)備好git和Python的安裝環(huán)境。
然后:下載源代碼到本地目錄。
git clone https://github.com/vladmandic/automatic
再然后:進入代碼目錄,運行:
webui.bat --debug (Windows) 或者 webui.sh --debug (Linux/Mac) t
最后,在啟動過程中,詢問是否下載默認model,選擇N。如果一切運行正常,瀏覽器輸入:
http://127.0.0.1:7860
Enjoy yourselves!

簡單輸入 a cat,測試下系統(tǒng)運行情況,如果能夠正常生成圖像,說明系統(tǒng)安裝沒問題。
但是系統(tǒng)默認使用的是v1.5的某模型,如果要使用最新的SDXL模型(SDXL模型包括:base和refiner),你需要手動去下載它。這里有點兒讓人不爽,SDXL 大模型本來跟其他Sd模型一樣,直接丟進 Stable diffusion models文件夾就能用的,但是SD.Next不行,加載會報錯,所以還不能這么用。它需要這么干:
在SD.Next Web-UI 頁面上,導(dǎo)航到Models?page 和 ?Huggingface?tab,在?Select model框中輸入:
stabilityai/stable-diffusion-xl-base-1.0
點擊搜索,然后在下面表格中會出現(xiàn)搜索結(jié)果:

鼠標(biāo)點擊搜索結(jié)果,會自動回填上文的其他空白框,確認沒有問題之后,點擊 download model 按鈕,SD.Next 就會自動下載模型到本地。同樣的操作來下載,輸入
stabilityai/stable-diffusion-xl-refiner-1.0

等兩個模型都下載好了,在Diffusers 文件夾中會發(fā)現(xiàn)多了兩個目錄:

,每個目錄都存儲了不少內(nèi)容,這個下載的模型跟我們在Stable diffusion Ui中丟進 Stable diffussion models目錄中的完全版不一樣:

SDXL下載好了,你還不能馬上去用它,你還需要做一件事:切換 backend 引擎,前文我提到SD.Next支持多backend,默認backend是原來的,不是新增的diffusers。此時需要切換到新的backend 才能使用SDXL。方法很簡單,在啟動命令中增加一個參數(shù),完整命令類似這種:
cd automatic; .\webui.bat --backend diffusers
其他平臺也一樣,都是增加 ?--backend diffusers 這樣的一個參數(shù)。跟前面有一個空格隔開。
執(zhí)行上述命令,重啟服務(wù),刷新頁面你發(fā)現(xiàn)上面的模型下拉列表中多了SDXL 的base模型:

因為SDXL的base 模型可以獨立使用,沒有refiner也沒關(guān)系,測試生成一張圖看看:

圖片還算清晰,如果某些圖不清晰,可以再搭配refiner模型來優(yōu)化:進入??Settings?page, 在?QuickSettings?list (search?quick?to find it), 添加
sd_model_refiner

如果你想要在下來框中有更多的聯(lián)動選項,還可以增加更多參數(shù):

然后保存設(shè)置并重啟Server:

重新加載web Ui后會發(fā)現(xiàn),兩個模型都出來了:

重新再生成一下剛才的圖片,注意圖像大小都設(shè)置為1024:

兩張圖都很清晰,通常使用了精修后的圖像效果會更好一些,但是也不絕對。在這個場景中,用不用refiner都一樣,反正肉眼看不出區(qū)別。也可能是我瞅電腦太久了,現(xiàn)在我感覺眼睛發(fā)脹。。。
如果你想切換到原來的sd 1.x或者2.x,可以在Settings中勾選original,重啟Server即可:

好了,到此關(guān)于新的web ui的部署和使用,我已經(jīng)介紹完了,作為閱讀這篇文章的你,有沒有感覺比stable diffusion ui 更好???如果是我,果斷去rm 它,如果上述理由還不夠強的話,可以再回去試驗下,前者是如何使用SDXL的兩階段模型的,而在新的ui中,兩階段模型是如此絲滑地集成到一起,方便得讓人欲罷不能。如果有任何問題歡迎評論和加群交流。
公開微信交流群:

私密知識星球群:
