stable diffusion(AI繪圖),部署和使用(一)

最近AI話題很火,前有chatgpt,之后有new bing,又出來了AI繪圖,確實空前的感覺到了AI階段性的重大突破。
比如gpt對我的工作已經(jīng)有幫助,改改東西完善寫作、語法提示、查缺補漏、各種稍微深入一點的對話,感覺到這玩意已經(jīng)實實在在的影響我們的生活。
未來可能即將改變很多職業(yè),并且可想象空間極大。
今天針對這幾個月比較火的stable diffusion,也就是AI繪畫,嘗試做了下安裝和嘗試,記錄一下。

安裝
主程序+UI+模型:Stable diffusion + sd-webui + chilloutmix
主程序:https://github.com/AUTOMATIC1111/stable-diffusion-webui
模型:https://civitai.com/models/6424/chilloutmix
這個sd-webui基本是傻瓜式的,運行run.bat,經(jīng)過漫長的安裝成功后,會自動運行后臺服務。

安裝過程可能會有報錯,比如內存不足,這種退出一些程序再啟動即可;有時網(wǎng)絡問題,部分網(wǎng)站需要科學上網(wǎng)。
我之前采用一步步安裝的方法,各種python的路徑設置或版本不統(tǒng)一,更換和調試起來很是麻煩,后來換到sd-webui全部自帶了,方便很多。
當然,還需要下載模型,這東西比較大,放置到sd-webui的models目錄下。

運行
開始本地運行吧,瀏覽器打開http://127.0.0.1:7860,顯示如下,可以看到模型也加載了,運行成功。

通過txt2img關鍵詞跑出圖片效果如下,怎么樣,還可以吧

關鍵詞:pretty girl, twintails,PNG INFO中有所有信息
運行情況:基于拯救者r7k,3050,win10,圖片分辨率384*512,生成速度3-4s。
隨便玩了一會,已經(jīng)生成好幾百張圖了,效率太高了,當然其中有一些圖片質量慘不忍睹。
想要達到自己要的效果,這里面的很多參數(shù)還需要進一步的摸索,關鍵詞條也需要摸索。

output目錄下有所有生成的圖片信息,大部分只是有點樣子,少部分還湊合,個別精品

下一步:了解模型、vea、lora、幾個關鍵插件之間的關系,并應用起來

后記
AI繪畫后續(xù)的想象空間太大了。
眼前來說,大家搞點好圖自己私藏,同人、二次元、攝影、古風各個圈子都可以研究到真假不分的地步,質量可以大大提升,甚至直接代替設計這個崗位。
往遠一點說,游戲制作、影視制作、動畫制作、漫畫,以后是不是都可以直接用AI繪畫和AI視頻搞定?
再往未來想象,你看到的所有東西都可以虛擬生成,迎合你的喜好定制,實時生成,這可不就是元宇宙的基礎么。。。