Stable-Diffusion-WebUI 搭建使用教程

Stable-Diffusion-WebUI 是一個基于 Gradio 庫的 Stable Diffusion 的瀏覽器界面,可以方便地配置和生成 AI 繪畫作品。下面是一個簡單的搭建教程,幫助你開始使用 Stable-Diffusion-WebUI。
安裝 Python 和 Git
首先,你需要在你的電腦上安裝 Python 3.x 和 Git。你可以從官方網(wǎng)站下載 Python 安裝包,并根據(jù)安裝向導進行安裝。Git 通??梢酝ㄟ^命令行或官方網(wǎng)站進行安裝。
克隆 Stable-Diffusion-WebUI 代碼庫
使用 Git 命令克隆 Stable-Diffusion-WebUI 的代碼庫到你的本地機器。打開終端或命令提示符,進入你想要存放代碼的目錄,并執(zhí)行以下命令:
bashCopy code
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
這將會將代碼庫克隆到當前目錄中的一個名為 stable-diffusion-webui
的文件夾中。
準備模型文件
將你想要使用的模型文件放置在項目根目錄下的 models/Stable-diffusion
文件夾中。你可以從 Stable-Diffusion 的官方網(wǎng)站或其他來源獲取模型文件。
安裝依賴庫
進入 stable-diffusion-webui
文件夾,打開終端或命令提示符,執(zhí)行以下命令來安裝所需的 Python 依賴庫:
Copy code
pip install -r requirements.txt
這將會安裝項目所需的所有依賴庫。
啟動 Stable-Diffusion-WebUI
在終端或命令提示符中,進入 stable-diffusion-webui
文件夾,并執(zhí)行以下命令來啟動 Stable-Diffusion-WebUI:
Copy code
python webui-user.py
等待一段時間后,你應該會看到一條提示信息,表明 Stable-Diffusion-WebUI 已經成功啟動。默認情況下,它會在本地的 7860 端口上運行。
在瀏覽器中訪問 Stable-Diffusion-WebUI
打開你喜歡的瀏覽器,并輸入以下地址來訪問 Stable-Diffusion-WebUI:
javascriptCopy code
http://localhost:7860
這將會打開 Stable-Diffusion-WebUI 的界面,你可以在這里進行配置和生成 AI 繪畫作品。
以上就是搭建 Stable-Diffusion-WebUI 的簡單教程。希望能幫助你成功啟動和使用 Stable-Diffusion-WebUI。如果你遇到任何問題,可以查閱項目的文檔或在相關的社區(qū)尋求幫助。祝你使用愉快!
命令行參數(shù) 解釋
--share online運行,也就是public address
--listen 使服務器偵聽網(wǎng)絡連接。這將允許本地網(wǎng)絡上的計算機訪問UI。
--port 更改端口,默認為端口7860。
--xformers 使用xformers庫。極大地改善了內存消耗和速度。Windows 版本安裝由C43H66N12O12S2 維護的二進制文件
--force-enable-xformers 無論程序是否認為您可以運行它,都啟用 xformers。不要報告你運行它的錯誤。
--opt-split-attention Cross attention layer optimization 優(yōu)化顯著減少了內存使用,幾乎沒有成本(一些報告改進了性能)。黑魔法。默認情況下torch.cuda,包括 NVidia 和 AMD 卡。
--disable-opt-split-attention 禁用上面的優(yōu)化
--opt-split-attention-v1 使用上述優(yōu)化的舊版本,它不會占用大量內存(它將使用更少的 VRAM,但會限制您可以制作的最大圖片大?。?。
--medvram 通過將穩(wěn)定擴散模型分為三部分,使其消耗更少的VRAM,即cond(用于將文本轉換為數(shù)字表示)、first_stage(用于將圖片轉換為潛在空間并返回)和unet(用于潛在空間的實際去噪),并使其始終只有一個在VRAM中,將其他部分發(fā)送到CPU RAM。降低性能,但只會降低一點-除非啟用實時預覽。
--lowvram 對上面更徹底的優(yōu)化,將 unet 拆分成多個模塊,VRAM 中只保留一個模塊,破壞性能
*do-not-batch-cond-uncond 防止在采樣過程中對正面和負面提示進行批處理,這基本上可以讓您以 0.5 批量大小運行,從而節(jié)省大量內存。降低性能。不是命令行選項,而是使用–medvramor 隱式啟用的優(yōu)化–lowvram。
--always-batch-cond-uncond 禁用上述優(yōu)化。只有與–medvram或–lowvram一起使用才有意義
--opt-channelslast 更改 torch 內存類型,以穩(wěn)定擴散到最后一個通道,效果沒有仔細研究。