最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

AI模型推薦(1)Anything-v3.0立繪專用模型測評|附鏈接

2023-04-09 18:49 作者:素葉錦時  | 我要投稿

寫在前面

? ? ? 這次測試的模型是Anything-v3.0立繪專用模型(以下簡稱anything立繪),全稱為Anything v3.0立繪專用模型(半精度剪枝版),文件名為Anything-v3.0-For-Tachie-non-ema-fp16,這個模型可以直接從WebUI的模型管理中下載到。

? ? ? 測評將從vae,clip跳過層,采樣方法等幾個重要參數(shù)出發(fā),通過控制變量法進行模型測試,測評結果僅作參考,不代表實際結果。

測試參數(shù)

測試參數(shù)

在之后測試中,除測試變量外,其余變量都為默認測試參數(shù),正面tag從測試用圖中通過tag反推提取,并經(jīng)過適當修改(圖片中由于篇幅原因tag未顯示全)

1,vae測試

vae測試

對包括不加vae在內(nèi)的5種vae進行了測試,可以直觀地看出,vae并不能影響畫面內(nèi)容,只會對畫面飽和度,亮度,明度等因素產(chǎn)生影響,不加vae會導致畫面偏灰暗,但對于anything立繪來說影響并不算大(我測試過其他幾個模型,有幾個灰的可怕,甚至有一個模型不加vae就無法出圖,相比之下不加vae的anything立繪的灰度完全在可接受范圍內(nèi)),另外,kl-f8,autoencader等幾個vae出圖后的飽和度較高,某些情況下會出現(xiàn)過飽和的問題,建議視個人喜好使用,個人推薦animevae,提高亮度的同時也不會顯得過飽和。

另一個測試例

2,clip跳過層測試

clip跳過層是個很玄乎的東西,一般來說只用2,這次測試了同一種子下clip跳過層從1到12的出圖

clip跳過層測試

可以看到,clip在1,2,5,10,12的時候,畫面出現(xiàn)了明顯變化。

clip1

當clip設為1的時候,畫面出現(xiàn)了極大的不穩(wěn)定性,三個例子中只有例1基本符合tag,其他兩個例子不能說毫無關系,只能說完全失去人物特征,但三個例子出圖質(zhì)量相比clip2都比較高,愛好隨機抽卡的可以試試。

clip2,3,4

clip2,3,4是較為符合tag的參數(shù),其中2的符合度最高,并依次遞減,因此推薦參數(shù)基本都是2。實際上clip2—9的畫面都是處于均衡變化狀態(tài),只不過例2中在clip5處出現(xiàn)了較大的畫面變化,因此才分開說。

clip5,6,7,8,9

clip5,6,7,8,9可以說和tag出入已經(jīng)相當大了,在測試中人物僅保留了獸耳,黑絲,外套,白襯衫等幾個tag,其他tag基本都被忽視了,不推薦使用。

clip10,11,12

在clip10處,三個例子都出現(xiàn)了雙人的情況,而在12處,雖然雙人的情況消失,但生成的圖片可以說與tag基本已經(jīng)沒什么關系了。

總結一下,首先,clip設置只推薦2,有抽卡需求的可以嘗試一下1;其次,雖然都是與tag相關性有關,但clip跳過層的邏輯明顯與提示詞相關性(CFG Scale)有很大不同,clip明顯和tag對著干,到后期甚至出現(xiàn)了雙人的情況;個人猜想clip對畫面的改變與tag的位置有關,越靠后的tag越容易被針對,而比較靠前的tag如1girl,solo等直到clip10才會被針對。

3,迭代步數(shù)測試

迭代步數(shù)測試

迭代步數(shù)測試了1—10,20,40,60,80,100的參數(shù)設置,圖太多就不細講了,這邊直接上結論:1—6步處于出圖狀態(tài),從第7步開始基本出圖完畢,到了能看的地步,7步以后每增加步數(shù)都會對畫面不合理的地方做細微調(diào)整,20步之后畫面基本穩(wěn)定,不會再有較大改變。

另外值得一提的是,隨著步數(shù)的增加,出圖所需時間也會相應增加,到100步時,我1650的顯卡基本10分鐘才能出1張,因此不建議步數(shù)過高,建議保持在20到40左右。

4,采樣方法測試

采樣方法測試

對SD自帶的20種采樣方法進行了測試,根據(jù)出圖大概可以分為一下幾系:

a系:名字中帶a的


a系

SDE系:名字中帶SDE的


SDE系

啥都沒有系:名字里看不出規(guī)律,但是出圖很像的系

啥都沒有系

以及兩個較特殊的:

Euler a:


Euler a

Euler a雖然名字也帶a,出圖也很像a系,但是和a系還是存在一定差別,因此單獨分一類。

DPM fast:


DPM fast

DPM fast是個很特殊的采樣方法,我一開始以為他出圖質(zhì)量堪憂,但對比迭代步數(shù)表后發(fā)現(xiàn),他的出圖效果很像沒有迭代完成時的效果,于是我把迭代步數(shù)從20拉到了80,果不其然,80步迭代后的DPM fast出圖質(zhì)量得到改善,并且是偏a系的,但即使這樣,依然不推薦DPM fast,誰讓他采樣迭代步數(shù)這么高,浪費時間。

5,提示詞相關性測試

提示詞相關性測試

在提示詞相關性測試中,選擇了1—10,12,14,16,18,20,23,26,30幾個參數(shù)進行測試。

CFG Scale1—3

相關度1時,anything立繪會產(chǎn)出一種極為魔幻的畫風,可以說和他的原本的風格截然不同,我個人很喜歡這種畫風,但是他人體結構等很不穩(wěn)定,得靠自己腦補;相關度從2開始逐漸穩(wěn)定下來,經(jīng)過3,4的兩次迭代,直到10都不會有什么明顯的變化。


CFG Scale4—10

但其實微小的變化還是有的,直接對比4和10就會發(fā)現(xiàn),相比于4,10的顏色飽和度,亮度明顯高了一點,之后這一區(qū)別會被不斷放大。



CFG Scale12,14,16,18,20

到了20,之前說的圖像顏色問題被進一步放大,人物的動作,服飾也出現(xiàn)了改變,變得更加單調(diào)古板,此時的圖已經(jīng)難以稱得上優(yōu)秀了。

CFG Scale23,26,30

20以后的圖像基本已經(jīng)不能看了,人物發(fā)著詭異的光芒,顏色的曝光度,鮮明度被拉滿,動作變成簡單的站姿……簡直慘不忍睹。

提示詞相關性上,4—10是一個比較能接受的區(qū)間,拉高相關性并不能讓圖像更符合tag,只會讓圖像過曝過鮮明。

6,尺寸測試

尺寸測試

出乎我意料的是,即使是在相同的種子下,不同的尺寸出的圖也是截然不同的,我本以為會是簡單地放大畫面??梢灾庇^地看到,如過想要不錯的出圖效果,長寬比最好保持在1:2或2:1內(nèi),且圖像不宜過小。但除了128*128只畫出了一雙腿(ai還是很懂得嘛),128*768之后的比例沒畫出人形外,其他比例都畫出了完整人形,甚至1024*128還畫了兩個,畢竟畫面太長了,總不能把人給拉長了。

7,tag數(shù)量測試

tag數(shù)量測試

在tag數(shù)量測試中,測試了不同數(shù)量的tag對畫面的影響程度(具體tag見文末測試表),這里不做詳細分析,直接給出結論,在不加權重的情況下,100字(不是100詞!)以后的tag基本對畫面產(chǎn)生不了多大影響,極有可能被忽略,可以參考測試例后三列,如果有特別想要表現(xiàn)出的tag,建議寫在100字內(nèi),另外,通過加權重或多寫相似tag也有可能解決此問題。(順便吐槽一句,AI根本不認識阿米婭!第一列tag我只加了質(zhì)量控制tag和amiya,AI顯然不知道我在說什么)

另外值得一提的是,明顯可以看出,在低tag情況下anything立繪出圖的質(zhì)量比高tag時高得多,由此可以得出兩個結論:1,anything立繪的低tag適應性強,這是個很重要的特性,某些模型在低tag情況下完全出不了圖。2,anything立繪tag敏感性高,這意味著anything模型能否出好圖很大一部分由tag質(zhì)量決定,這對不會寫tag的小伙伴來說絕對是一場災難。

最后總結,如果你不在乎出的是誰,只想要好看的妹紙,建議tag盡量少,體會抽卡的快感;如果你想要固定某個人物,又想要高質(zhì)量的圖,那么恰恰相反,tag寫的越多越好,而且還得精通大魔導書,懂得tag權重等一系列知識,才有可能在anything立繪上出好圖。

8,模型對比測試


模型對比測試

這里我用了我手上14個模型用相同的種子進行對比測試,不對模型好壞做評價,每個人有每個人的畫風喜好。但還是可以看出,在相同條件下,一些模型出的圖從細節(jié),畫面結構,人物動態(tài),背景等方面確實是要優(yōu)于其他模型的。anything立繪在這方面我只能說表現(xiàn)一般。

anything立繪
cetus
meinamix
orientalpunkmix

9,重繪幅度測試

重繪幅度測試

不多說,直接上結論,重繪幅度0.6之前都對畫面造不成太大影響;重繪加tag確實能讓重繪的方向與tag一致,但是也和tag質(zhì)量息息相關;同一種子不同原圖重繪的結果也不一樣;

10,模型圖例

后話

anything立繪在我看來是一個相當穩(wěn)定的模型,人物結構穩(wěn)定,出圖質(zhì)量偏上,有很好的低tag適應力,但是其對tag質(zhì)量要求較高,否則出的圖容易平平無奇。

測試表,測試圖包,模型以及一些不能說的鏈接:

鏈接:https://pan.baidu.com/s/1oX_EtQz7w94CGQYgM15WVA?pwd=y4px?

提取碼:y4px

如果有想測試的模型可以提供模型私聊哦

up微社恐所以不怎么回私信和評論

下一期模型預告:cetusmix(不知道啥時候會寫出來,有可能咕咕咕)

Q&A

Q:用的配置是什么?

A:出圖的參數(shù)包括種子都在測試表里,請去鏈接自取~~

顯卡配置為NVIDIA GeForce GTX 1650(4G),垃圾顯卡嗚嗚嗚……

Q:為什么不測試面部修復/平鋪分塊/高清修復等其他功能?

A:統(tǒng)一回答,顯卡帶不動……

面部修復試過,感覺沒什么區(qū)別;

平鋪分塊不知道是啥,總之沒帶動;

高清修復低了感覺沒區(qū)別,高了帶不動……

Q:為啥圖包質(zhì)量這么低?

A:圖包包括測試圖包(測試表里的圖,文件名為:模型名+測試),測試廢料圖包(因為一些原因未能進入測試表的圖,文件名為:測試),不能說的圖包(文件名為:nsfw測試),這三個圖包均為測試中生成,沒有經(jīng)過篩選,僅供學習使用,如果只是想要優(yōu)秀的圖包請自己跑或去p站

Q:為啥參數(shù)一模一樣生成的圖片不一樣?

A:暫時不知道不同顯卡是否會對出圖內(nèi)容產(chǎn)生影響,建議v我張顯卡助我測試

Q:建議tag是什么?

A:建議tag為:質(zhì)量tag(必加)+人物tag(自己決定,可用lora代替,抽卡可不寫)+畫面tag(最好加,大幅提升質(zhì)量)+環(huán)境tag(最好加,大幅提升質(zhì)量)+動作tag(有需要加);

我在測試時沒加畫面tag和環(huán)境tag,導致測試用圖都平平無奇,在10,模型圖例中加入了畫面tag和環(huán)境tag,畫面質(zhì)量大幅度提升;

Q:為什么我測試的結果和你完全不一樣?

A:本測試所得出的結論僅基于本測試用例,僅供參考,不代表實際效果;

Q:可不可以給我模型,圖包,參數(shù)/怎么用AI繪畫,AI繪畫的軟件

A:前者鏈接自取,后者b站自己搜教程

Q:為啥圖片這么糊?

A:屏幕截圖截的,想要高清圖請去鏈接下載測試表

Q:為啥做這分析?

A:我在學習AI繪畫的過程中,總會遇到:推薦模型不給參數(shù)的,給了參數(shù)沒說原因的,說了原因太深奧聽不懂的。所以才想嘗試用自己能夠理解且直觀的方法去測試一款模型。






AI模型推薦(1)Anything-v3.0立繪專用模型測評|附鏈接的評論 (共 條)

分享到微博請遵守國家法律
东丰县| 朝阳区| 大城县| 郓城县| 肥东县| 长宁县| 黄山市| 襄城县| 闽清县| 五华县| 项城市| 奈曼旗| 兴城市| 卢湾区| 滨海县| 丹棱县| 开远市| 南靖县| 康保县| 宝鸡市| 瓦房店市| 桐柏县| 张掖市| 沂源县| 朝阳县| 东兰县| 河源市| 万盛区| 阿拉善左旗| 凤庆县| 石狮市| 永登县| 宁津县| 高碑店市| 镇江市| 江西省| 台南县| 长治市| 彩票| 北票市| 刚察县|