【AI繪畫】模型修剪教程:8G模型頂級精細?全是垃圾!嘲笑他人命運,尊重他人命運
先說結論:凡是SD1.5的模型,2G大小就是最終的有效數(shù)據(jù)[1]。
模型越大,只能是垃圾數(shù)據(jù)越多
[1] SD-WebUI 默認 fp16 精度,不使用EMA
模型里都有什么?
首先清楚一件事:SD模型由三個小部分組成:U-Net,TextEncoder,VAE。
不懂的回去復習我講過的視頻,這些都是干什么用的早就講過了

大小如圖所示,多出來的EMA又是什么?

EMA(ExponentialMovingAverage),指數(shù)滑動平均,就是理解為一個訓練時候把最后一些步數(shù)的結果做平均,并單獨存下來。
而WebUI中,不會用到EMA權重。
并且,一旦你把帶有EMA的模型與不帶有EMA的模型進行融合,EMA就再也沒有了用處。
為什么?
EMA是這個模型U-Net的一些平均值,而你把兩個模型融合,一個不帶EMA,這部分權重就并不會被融合到,這也變成了純粹的垃圾數(shù)據(jù)
FP16是否會損傷出圖效果?
還是那句話,WebUI默認用FP16。哪怕你用的FP32模型,那也得乖乖轉成fp16來計算出圖。
當然,你如果樂意也可以選擇使用fp32計算,獲得更慢的速度,更大顯存爆炸
如何剪裁模型?
請使用我寫的“模型轉換”插件,按照圖中內容選擇可保證剪裁到2G無任何效果變化。

用事實說話,不用感覺
這也是最基本的科學。請用事實說話,而不是你的感覺。
如果你認為剪裁模型發(fā)生了效果變化,請使用完全一致的參數(shù),重新跑同一張圖做對比,否則你就是民科。
FP32模型完全沒用?
可以留著,訓練時候也可以用。不過訓練時也會開啟混合精度,照樣用fp16。
有時,部分黑圖有人覺得也可以用fp32解決
尊重理解他人命運
總有人學個模型融合覺得自己好牛批,但是可能連一行代碼都看不懂,原理一點都不懂,反正我就是對的
