最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

Stable Diffusion 快問快答

2023-03-29 22:59 作者:一點十六  | 我要投稿


Stable Diffusion V2

01、Stable Diffusion 是什么?

是一款開源免費的AI繪畫工具,可以文生圖,也可以圖生圖。

02、Stable Diffusion 的同類產(chǎn)品還有哪些?

同類產(chǎn)品只關注 Midjourney、DALL-E2 就好了,其他的要么沒開放,要么效果一般,要么基于SD二次開發(fā)。

03、想要簡單的試用一下 Stable Diffusion

那可以先不在本地安裝,試下在線版本:

https://beta.dreamstudio.ai/generate?from=%2Fdream

https://dreamlike.art/create

dreamstudio

04、stable-diffusion-webui 是什么?

Stable Diffusion 安裝到本地的交互界面,開源免費,現(xiàn)在大部分用的就是這個,但這套界面技術大于設計,交互體驗是有很大進步空間的。優(yōu)勢是拓展性很好,可以整合好多其他功能。

https://github.com/AUTOMATIC1111/stable-diffusion-webui

webui

05、stable-diffusion-webui 的主要功能?

最好直接看開發(fā)者的Wiki:

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features

06、如何本地安裝?

webui安裝類教程很多,很容易找到;

如果懶得自己安裝,可以選整合包,比如秋葉同學的,解壓即用,還無私免費。

安好webui之后,記得還要自己安裝模型,之后才能正常使。

很多教程

07、本地安裝對電腦配置有啥要求?

1、顯卡要好,顯存要大;

2、硬盤自然也是固態(tài)的好,但是機械的問題也不大,無非是讀盤慢點兒;

3、對MAC用戶不太友好。

08、模型是啥?

文字轉化為圖像的核心模塊,生成圖片主要靠它,不同的模型生成的類型會不一樣。

09、去哪兒下載模型?

簡單貼幾個網(wǎng)站,模型看好了最好下載到本地,因為搞不好作者就刪庫跑路了

1、https://huggingface.co/models

2、https://civitai.com/

3、http://www.123114514.xyz/

huggingface

10、stable-diffusion-webui怎么用?

簡單流程就是:選好模型,輸入正反描述詞,然后點擊生成就可以了,抽卡似的,抽到滿意的為止。

11、Stable Diffusion 背后的工作原理是什么?

潛空間擴散模型,就是對著一團噪聲圖,不斷的降噪,最后獲得清晰圖像。好像一兩句也說不清,為此專門出了一期視頻:

12、影響webui繪圖結果的主要因素有哪些?

影響力排序:描述詞 > 模型選擇 > 隨機種子 > 畫面尺寸 > CFG > 采樣方法 > 采樣步數(shù)

webui

13、各個配置項都是什么意思?

1、描述詞控制生成的內(nèi)容:要畫什么東西;

2、模型影響生成的風格、類型:照片、插畫、動漫;

3、隨機種和尺寸影響生成的畫面結構:主要是構圖,姿勢,樣貌等;

4、CFG影響描述詞的相關性大?。菏亲孉I放飛自我,還是言聽計從;

5、采樣方法和步驟影響生成畫面的細節(jié):影響較小。

14、怎么控制每個描述詞的權重?

1、從前往后,權重遞減;

2、加括號可以單獨控制權重,以下為簡單示例:

Prompt = (Prompt:1)

(Prompt) = (Prompt:1.1)

[Prompt] = (Prompt:0.9)

15、常見的模型有哪些種類?

1、官方模型

Stable AI 花幾十萬美刀,從數(shù)億圖片上訓練的大模型,范圍非常廣,但不太易用,如:SD 1.5、SD 2.1等;

2、微調模型

用Dreambooth技術在官方模型基礎上,繼續(xù)訓練的第三方模型,一般有著明確的創(chuàng)作類型,如:攝影、插畫、動漫;

3、小模型

Lora、Embedding(Textual ?Inversion)、Hypernetwork等,需要和大模型配合使用,一般有著更明確的圖像特征,如:各類角色,風格的小模型;

4、VAE

潛空間圖像編碼的解碼器,一般內(nèi)置,也可以替換,單說結果的話,對色彩傾向的影響大一點兒;

Stable Diffusion V2

16、ckpt格式和safetensors格式的模型有啥區(qū)別?

對使用來說,沒啥區(qū)別,但safetensors格式可以防止Pickle反序列化攻擊,更安全一點。

17、模型越大越好嗎?

體積大不一定效果好,但一定會增加電腦負擔。

18、模型的不同版本差異?

一般是更新了訓練集,微調了細節(jié)表現(xiàn),但目前不一定新版就比舊版的效果好,可能時間跨度再大一點,新版和舊版的差距會更明顯吧。

SD1.0 - SD1.5簡介

19、如何自己訓練模型

自己弄,挺耗電腦性能的。

練微調模型,搜Dreambooth插件;練Lora,搜kohya_ss;練Embedding,webui就可以。

https://github.com/bmaltais/kohya_ss

20、最快的上手方法?

最快的學習方法依然是模仿,搜羅一些優(yōu)秀的作品,看人家是怎么寫提示詞,設置參數(shù)的。

https://prompthero.com/
https://lexica.art/

21、如何更精確的控制?

很難,雖然有插件幫忙,但也很難。

AI總有自己的想法,咱們或許可以轉變下身份,從執(zhí)行者,轉變?yōu)闆Q策者,給它自由度,只保留最終決策權。

22、要不要學一下AI生成?

新技術了解下自然是好的,但:千萬不要被割韭菜!千萬不要被割韭菜!千萬不要被割韭菜!

23、AI有審美嗎?是否會遵循形式美的法則?

目前來看,AI是懵懂的,依靠訓練時圖像的文字標簽來識別畫面,自己是不太理解美丑,對錯的。

24、AI 繪畫怎么應用到商業(yè)流程中去?

可以用來找靈感;可以用來出草稿;可以用來生成素材;

如果直接用于最終結果的生產(chǎn),目前來說仍然有些激進。

25、會侵權嗎?

如果明確的去復刻真人的樣貌,那指定是侵犯人家肖像權;

如果對著別人原作,在內(nèi)容,風格,色彩等多方面,1:1的抄,那也會侵權;

但如果只是參考借鑒,應該就很難構成侵權了;

抄襲和參考的界限,就還挺模糊的,需要自己把控,對得起職業(yè)操守。




故障、錯誤修復


01、整體結構、比例錯亂

1、使用反向提示詞,排除錯誤的結構;

2、使用controlnet插件,再引入一張圖片,來糾正結構比例;

3、不管這個了,再多生成幾張

controlnet插件

02、人臉部結構錯誤

勾上Restore faces。

如果報錯,估計是人臉修復模型沒安好,可以找到對應文件夾,把下一半兒的模型刪了,再點擊生成,就會重新下了,要視網(wǎng)速等待一段時間。

模型文件夾:stable-diffusion-webui\models\Codeformer

stable-diffusion-webui\models\Codeformer

03、生成了倆腦袋的問題

1、反向提示詞寫上:bad anatomy, bad proportions, 之類的,補救下;

2、修改畫面比例,越接近正方形,越容易避免倆頭的問題;

3、保持比例,但是輸出全身像,再裁剪出需要的比例;

04、手指錯亂

1、躺平,不畫手了,手本來就很難畫;

2、合上去一個正確的手,然后使用controlnet插件處理

3、在反向提示詞中輸入手的提示:extra limbs, bad hands,之類的;




目前SD技術上的不足


01、做不到精細的控制

抽卡模式很不可靠,精細處的調整還是需要人工;

難以預估,也有可能抽倆鐘頭都沒滿意的。

02、作品同質化

生成技術的廉價,必然會帶來同類型產(chǎn)品的泛濫;

03、受限于訓練集

沒練過的不會畫,倒也不是不能畫,而是會亂畫;

04、可能會不知覺的侵權

如果用了來路不明的模型,可能會抄襲到某位原作者;

05、描述詞不支持中文輸入

嗨,怪就怪馮 諾依曼老爺子是歪果仁;

06、描述詞對自然語言的理解也不太好

不然,大家也不會管描述詞叫“咒語”了,目前的描述詞狀態(tài)就很不智能。

07、畫面之外的抽象感覺無法控制

連語言都難以描述,它自然也無能為力。




Stable Diffusion 快問快答的評論 (共 條)

分享到微博請遵守國家法律
新蔡县| 黄大仙区| 漳平市| 花莲县| 武隆县| 绥宁县| 高尔夫| 盐源县| 元朗区| 任丘市| 双城市| 东阿县| 天柱县| 兴业县| 庆云县| 南召县| 阿克苏市| 武义县| 阿合奇县| 南川市| 彰武县| 南木林县| 舟曲县| 阳江市| 伽师县| 沾化县| 汝南县| 蒲城县| 阿城市| 综艺| 开阳县| 江门市| 卓尼县| 子长县| 鄂尔多斯市| 平安县| 平陆县| 秭归县| 璧山县| 明光市| 乳源|