閑言少敘,直接上表,訓(xùn)練loRA,用這參數(shù)

以秋葉akkki的訓(xùn)練包為基準(zhǔn),由上到下的順序進(jìn)行逐項(xiàng)填寫即可。
Dim越大,耗費(fèi)GPU越高,最后生成的loRA模型越大,質(zhì)量提升有限。
這個(gè)參數(shù)設(shè)置對(duì)應(yīng)的樣本量在左側(cè),大概演算時(shí)間在右側(cè)。
LoCon Alpha的數(shù)值可以調(diào)節(jié)為1,防止極小收束的發(fā)生。
穩(wěn)定率80%,丟包率維持在0.12左右。
泛化度良好,接受率約70%。
