15分鐘入門AI動畫!Mov2Mov零基礎教學,用Stable Diffusio

*覺得筆記不錯的可以來個一鍵三連?
(16分鐘的視頻打完發(fā)現(xiàn)過去兩小時咯)
一、AI動畫“古法”逐幀重繪
*視頻、動畫其實也是由一張張靜止的圖片連續(xù)播放而成的,每一張圖片叫做視頻的“一幀”

SD中的圖生圖可以把一張圖片“重繪“成任何一種風格
AI動畫本質(zhì)上就是把視頻每秒的20-30張畫面拆開,單獨重繪每一張畫面,再拼回去變成一個完整的視頻
二、圖生圖批量重繪
1.SD中圖生圖標簽里有一個“批量處理”功能
設置好輸入目錄和輸出目錄就可以對多張圖片批量進行圖生圖操作
*輸入目錄:存放將要重繪圖片的文件夾路徑
輸出目錄:存放重繪完成圖片文件夾路徑
還可以批量導入重繪模板和骨骼圖(進階,暫時不聊)

2.將視頻變?yōu)閳D片
(1)如果會操作Pr等剪輯軟件,可以將一個視頻導出一張張的圖片序列進行重繪
(2)為了照顧不會剪輯軟件的同學,爭取全部在Webui里完成

【IS-NET Pro】
作者:@星瞳毒唯
教程:BV1Fh411G7dw
倉庫:https://github.com/ClockZinc/sd-webui-IS-NET-pro
安裝完成后打開SD找到“IS-NET Pro”的標簽

可以將導入的視頻拆分成單幀圖片

(3)插件具體功能介紹
①視頻”拆散“
啟用輸出幀率控制:調(diào)節(jié)視頻的幀率
不勾選默認幀率輸出圖片
查看視頻幀率:右鍵一個視頻—屬性—詳細信息—幀速率

幀速率25.00幀/秒:每秒播放25張圖片,30幀:每秒30張圖片,60幀:每秒60張圖片
啟用時間段裁剪:控制裁剪視頻從哪開始到哪里結(jié)束,比較長的視頻可以用這個來截短
圖片輸出地址:生成的圖片存放路徑
②圖片“重組”

FPS:幀率
原視頻幀率是多少,輸出視頻幀率要保持一致,不然視后期處理的視頻速度對不上
圖片輸入地址:剛剛批處理輸出的文件夾路徑
視頻輸出地址:保存視頻的文件夾路徑
3.風格測試
寫tag:一般精確到從頭到尾都適用的外貌特征就夠了,畫質(zhì)標準化+(內(nèi)容,不變的)人物特征+背景特征
*視頻轉(zhuǎn)繪幅度較大,推薦加入dynamic poise提示詞增強動態(tài)感,detailed face提示詞可以確保在半身或全身畫面下人物的臉部不至于太過模糊

設置完成后點擊生成,直到有一張符合自己需要的圖生圖結(jié)果,然后把隨機種子固定下來

打開批處理,把輸入輸出文件夾設置好,點擊生成,批量重繪就開始了


三、Mov2Mov擴展應用(真正視頻到視頻的轉(zhuǎn)換)
擴展插件:

【Mov2Mov】
作者:@小丁NaNd
教程:BV1Mo4y1a7DF
倉庫:https://github.com/Scholar01/sd-webui-mov2mov
1.功能介紹
打開SD中的Mov2Mov標簽

功能設置選項與圖生圖基本一致,導入圖片變成了導入視頻
噪聲(重繪幅度)乘數(shù) [Noise multiplier](不常用)

它被藏在設置—Stable Diffusion中,默認值為1

簡單理解:輸入的重繪幅度乘以這個數(shù)才會得到真實作用的最終“重繪幅度”(雖然真正的原理并不是這樣)

很多AI動畫創(chuàng)作者會設置一個很低的數(shù)值(甚至是0),以確保穩(wěn)定度以及產(chǎn)出作品和原視頻足夠像,但是會消除一些AI繪制的風格化因素,容易造成畫面模糊



Movie Frame:幀率,保持與原視頻一致
Max Frame:用來“測試”的選項,先生成一小段視頻查看效果
設置成-1時不生效,輸入50,就是先畫50幀

ModNet:清除背景的選項,似乎需要加載額外模型,可以維持默認不開啟
2.設置完成后點擊生成,生成完可以直接在頁面中預覽

3.如果通過Mov2Mov生成的視頻
在你根目錄下的outputs文件夾里,會多出兩個文件夾,videos存放成品視頻,images存放單幀繪制的圖片

對生成的視頻滿意且不需要局部調(diào)整可以將images文件夾里的圖片刪除

4.兩者對比
批處理和Mov2Mov沒有太大區(qū)別

優(yōu)點和缺點

*通?。憾疾荒馨岩纛l整合進來,可以用任意一款剪輯軟件把音頻導入
5.注意模型和重繪幅度
模型:決定畫風的最大要素,不同模型出來的效果不一樣
重繪幅度:沒有絕對的正確答案
追求與原視頻“更像”,就設置比較低一些
想讓AI自由”發(fā)揮“,保留更多模型特質(zhì),就設置高一些,但最好不要超過0.5,高了圖像一般不穩(wěn)定


四、LoRA應用
在批處理或者Mov2Mov中開啟Additional Network
可以讓特定的LoRA微調(diào)

LoRA具體作用看前面的第9課
AI動畫中最常見的應用是使用一些畫風LoRA讓畫面增強某種風格特色
水墨風格LoRA:潑墨 lnk Splash



對畫面“改動”不是那么大,添加一些細節(jié),進行潤色
Detail Tweaker豐富細節(jié)
Fashion Girl“美顏”


五、ControlNet:精準控制
*在第10課有具體講解
每種ControlNet在AI動畫中都可以發(fā)揮一定的效果
1.AI動畫視頻內(nèi)的效果控制
(1)還原人物姿勢:使用Openpose,開啟Face,增強對表情復現(xiàn)的生動程度


近身鏡頭會拍到手部的要開啟Hand
嫌麻煩開Full,一步到位
(2)還原場景特征:開啟Depth,極大程度降低發(fā)生在復雜背景里閃爍程度
(3)畫面變化幅度不大,主體比較固定:
開啟Canny和SoftEdge,能還原準確的主體形象
(4)如果使用的是最新1.1的ControlNet,還可以開啟Lineart(線稿)的模型

提取比Canny更為精細且富有連貫的線條

在輸入不同屬性的信息圖時,記得選擇對應的預處理器,讓結(jié)果變得更準確

2.沒人煉LoRA
最新1.1的ControlNet推出一個新的模型Reference ONLY,作用是可以提供“參考”
把記載主體形象的圖片置入到ControlNet中,開啟Reference ONLY,在生成過程中都去“復現(xiàn)”這張圖上的特征,讓生成出來的每張圖跟原始圖足夠像



加了東西要比不加的要穩(wěn)定、自然得多
3.推薦
在AI動畫中使用多重控制網(wǎng)

但up主并沒有推薦在AI動畫中使用太多ControlNet,因為過多的控制會喪失AI的創(chuàng)造力

使用多重ControlNet,會降低繪制速度

六、AI動畫現(xiàn)存在的問題
AI動畫目前還不是很成熟,有三點原因:
“錯亂”:AI不能正確讀取每一張圖片上的內(nèi)容,且無法理解一些動作表現(xiàn)與空間關系,在畫面越來越復雜時,變得越來越嚴重
“閃爍”:AI在刻畫前后的幀時經(jīng)常存在“不一致”的現(xiàn)象,從人物外觀特征到服飾到場景,都有可能變化,從而造成類似畫面一直在閃動的效果

“速度慢”:每生成1秒25幀的視頻大概要40秒左右的時間

好像速度還行?但up的顯卡是4090

再進一步開啟ControlNet等擴展,時間會兩倍、三倍往上翻,還沒算上反復調(diào)試、測試用的時間



擴展:多幀渲染

時長變?yōu)樵瓉淼?倍

那如何既輕松、又穩(wěn)定地把這個動畫做出來呢?

請看下集