從摳圖到真人轉(zhuǎn)繪-最近的一些經(jīng)驗(yàn)總結(jié)

關(guān)于真人AI轉(zhuǎn)繪,想要更加穩(wěn)定的畫面,良好的摳圖越來越重要。
Up測試了網(wǎng)上很多批量摳圖方法
這期講一下測試的結(jié)果
?
1.首先我教程中isnet pro插件自帶的摳圖
這個(gè)摳圖速度最快
但是摳圖質(zhì)量一般,只適用于人物和背景差距較大的視頻。
比如已經(jīng)做了景深處理的視頻。
?

操作步驟就是填寫如上信息,點(diǎn)擊開始生成
?

很快就能看到生成的圖像,但是很明顯存在問題,如肢體缺失、背景摳不干凈等。
?

?

這樣的圖片可以通過導(dǎo)入PS用橡皮擦等逐步修復(fù),但是工作量較大。
(本次舉例的為背景比較復(fù)雜的情況,如果素材足夠合適,那使用isnet就夠用了)
?
2.?AE/PR的插件Goodbye greencreen

?
安裝好之后直接拖到視頻圖層

?
設(shè)置為自動(dòng)蒙版-通用

?
可以輸出視頻效果
如果你的視頻有著固定不變的背景,并且你有這張背景的圖片
可以設(shè)置為
?

背景模式,并關(guān)聯(lián)背景圖層,插件會(huì)根據(jù)算法將背景去除。
當(dāng)然,如果你的視頻背景過于復(fù)雜,這個(gè)摳圖的結(jié)果也需要手動(dòng)修復(fù)。
?
3.?一些收費(fèi)軟件。
?

本次測試了兩款智能摳圖軟件。
可以說成本巨大。
不是廣告,本人不推薦去購買這樣的軟件。
首先是改圖鴨
?

可以說摳圖效果比較好了
?

缺點(diǎn)是一次只能改30張圖,我一批批的導(dǎo)入,500張圖改了一個(gè)多小時(shí)才摳完。
第二個(gè)軟件是嗨格式摳圖大師

?
這個(gè)軟件摳圖效果次于改圖鴨,但是沒有一次性摳圖限制。
雖然沒有限制,也不能一次性提交太多,軟件容易崩潰。
?
4.?segment everything
作為一個(gè)語義分割插件,segment功能強(qiáng)大,可能是未來AI圖像方面重點(diǎn)之一。
這里只說一下它的摳圖功能。


?在批處理中,選擇處理模型,輸入需要分離出來的tag,比如這里是官方案例寫的?one?standing?girl?with?full?body這個(gè)詞條,形成了一個(gè)人體的蒙版,達(dá)到了摳圖的效果。
這個(gè)插件本身我還在摸索中,如果測試效果好的話可能會(huì)單獨(dú)出一個(gè)教程。
?
【制作流程】
1.?摳圖,切片
在完成摳圖之后,通過PR或者isnet pro插件切片,這個(gè)在教程BV1qT41187oT中有非常詳細(xì)的操作方法,就不贅述了。
2.?參數(shù)調(diào)整
這次將大部分預(yù)處理器都測試了一遍
正面tag:
<lora:suzume_v10:0.65:1,1,1,1,1,0,0,0,1,1,1,1,1,1,1,0,0>,<lora:thickerLinesAnimeStyle_loraVersion:0.6:1,1,1,1,1,0,0,0,1,1,1,1,1,1,1,0,0>,smile,ponytail,cute,anime, simple background, 1girl, solo, skirt, school uniform, blue background, socks, black hair, full body, shirt, green skirt, black socks, ribbon, shoes, black footwear, braid, long hair, kneehighs, short sleeves, white shirt, standing, pleated skirt
負(fù)面tag:
(low quality, worst quality:1.4),(bad_prompt_version2:0.8), nsfw,nsfw, hair ornament,hair ribbon,(shadow:1.2),blue eyes,toys,doll,holding toys, short hair,
Tag也是在不斷跑圖中增加詞語的。
以下是單開controlnet預(yù)處理器,并且全部是0.6的權(quán)重,完美像素模式繪畫結(jié)果
前面沒有標(biāo)注的均為meinamixV9模型,并且掛了粗線稿lora和鈴芽lora
①xcribbile_xdog
涂鴉-強(qiáng)化邊緣
?

②candy-邊緣檢測

?
③inpaint-global-harmonious重繪-全局融合
?

?
④tile分塊重采樣-高清化
?

?
?
⑤softedge-hed 軟邊緣檢測

?
?
⑥lineart-realistic 寫實(shí)線稿提取

????
?
?
?
⑦lineart-anime動(dòng)漫線稿提取

?
?
?
⑧l(xiāng)ineart-anime動(dòng)漫線稿提取+oldfish模型

?
?
⑨lineart-anime動(dòng)漫線稿提取+AnythingV5模型

?
?
?
?
⑩lineart-anime動(dòng)漫線稿提取+dark sushi模型

?
當(dāng)然只看單幀效果是不夠的,每個(gè)處理器都要跑幾張看看連貫性。
最后選擇的還是動(dòng)漫線稿+meinamixV9
這個(gè)過程不是固定的,每個(gè)重繪角色不同,選擇肯定不一樣。
我的每個(gè)視頻會(huì)放出單圖參數(shù),可以通過這個(gè)參考,但實(shí)際制作的時(shí)候需要自行測試調(diào)整。

?
3.?再次摳圖
?
跑完圖之后有時(shí)候會(huì)因?yàn)轭A(yù)處理器問題,再次出現(xiàn)不需要的部分,有時(shí)候是無法避免的,需要對這部分再次摳圖,以保證畫面的純凈。
?



完成以上工序后,就可以合并序列,生成新的視頻了。
關(guān)于合并序列,修改背景,補(bǔ)幀,防閃爍等請參考BV1qT41187oT。
【總結(jié)】
AI動(dòng)畫是個(gè)不斷探索的過程,up的每個(gè)視頻制作流程都和上一個(gè)不同,每次都能有一些新發(fā)現(xiàn),雖然不一定是有用的內(nèi)容。
摳圖是一個(gè)繁瑣的工作,但它能大幅度穩(wěn)定畫面,這樣可以使用單幀渲染,很大程度上降低算力要求。鈴芽這個(gè)視頻實(shí)際渲染時(shí)間不到3個(gè)小時(shí),主要消耗在摳圖和不斷測試生成,修改tag上。
up希望能把效果好的AI動(dòng)畫門檻降低,而不是你問他他就告訴你上多幀渲染,上4090,測試了那么多結(jié)果都表明不需要太多的預(yù)處理器,低分辨率也能出好效果。如果沒有硬件還可以用colab去免費(fèi)用谷歌的gpu,教程也已經(jīng)發(fā)了。
希望總結(jié)的經(jīng)驗(yàn)?zāi)軌驗(yàn)榇蠹姨峁┮恍椭?,AI動(dòng)畫實(shí)在是太小眾了,消耗大量的時(shí)間精力,播放量也寥寥無幾,著實(shí)可惜。現(xiàn)在首頁刷到一些關(guān)注我的人做的視頻,我都會(huì)點(diǎn)進(jìn)去看看,大家能做一些與眾不同的東西,就感覺很欣慰了。
?