最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

15分鐘入門AI動畫!Mov2Mov零基礎教學,用Stable Diffusio

2023-07-06 01:38 作者:葉雨景彡  | 我要投稿

*覺得筆記不錯的可以來個一鍵三連?

(16分鐘的視頻打完發(fā)現(xiàn)過去兩小時咯)

?
00:02
?

?
01:43
?

一、AI動畫“古法”逐幀重繪

*視頻、動畫其實也是由一張張靜止的圖片連續(xù)播放而成的,每一張圖片叫做視頻的“一幀”


?
02:08
?



?
02:25
?

SD中的圖生圖可以把一張圖片“重繪“成任何一種風格

AI動畫本質(zhì)上就是把視頻每秒的20-30張畫面拆開,單獨重繪每一張畫面,再拼回去變成一個完整的視頻

?
03:17
?

二、圖生圖批量重繪

1.SD中圖生圖標簽里有一個“批量處理”功能

設置好輸入目錄和輸出目錄就可以對多張圖片批量進行圖生圖操作

*輸入目錄:存放將要重繪圖片的文件夾路徑

輸出目錄:存放重繪完成圖片文件夾路徑

還可以批量導入重繪模板和骨骼圖(進階,暫時不聊)


?
03:40
?

2.將視頻變?yōu)閳D片

(1)如果會操作Pr等剪輯軟件,可以將一個視頻導出一張張的圖片序列進行重繪

(2)為了照顧不會剪輯軟件的同學,爭取全部在Webui里完成

?
03:51
?

【IS-NET Pro】

作者:@星瞳毒唯

教程:BV1Fh411G7dw

倉庫:https://github.com/ClockZinc/sd-webui-IS-NET-pro


安裝完成后打開SD找到“IS-NET Pro”的標簽

可以將導入的視頻拆分成單幀圖片


?
04:13
?

(3)插件具體功能介紹

①視頻”拆散“

啟用輸出幀率控制:調(diào)節(jié)視頻的幀率

不勾選默認幀率輸出圖片

查看視頻幀率:右鍵一個視頻—屬性—詳細信息—幀速率

幀速率25.00幀/秒:每秒播放25張圖片,30幀:每秒30張圖片,60幀:每秒60張圖片

啟用時間段裁剪:控制裁剪視頻從哪開始到哪里結(jié)束,比較長的視頻可以用這個來截短

圖片輸出地址:生成的圖片存放路徑


?
06:32
?

②圖片“重組”

FPS:幀率

原視頻幀率是多少,輸出視頻幀率要保持一致,不然視后期處理的視頻速度對不上

圖片輸入地址:剛剛批處理輸出的文件夾路徑

視頻輸出地址:保存視頻的文件夾路徑


?
04:47
?

3.風格測試

寫tag:一般精確到從頭到尾都適用的外貌特征就夠了,畫質(zhì)標準化+(內(nèi)容,不變的)人物特征+背景特征

*視頻轉(zhuǎn)繪幅度較大,推薦加入dynamic poise提示詞增強動態(tài)感,detailed face提示詞可以確保在半身或全身畫面下人物的臉部不至于太過模糊

設置完成后點擊生成,直到有一張符合自己需要的圖生圖結(jié)果,然后把隨機種子固定下來

打開批處理,把輸入輸出文件夾設置好,點擊生成,批量重繪就開始了


?
06:52
?


?
07:18
?

三、Mov2Mov擴展應用(真正視頻到視頻的轉(zhuǎn)換)

擴展插件:

【Mov2Mov】

作者:@小丁NaNd

教程:BV1Mo4y1a7DF

倉庫:https://github.com/Scholar01/sd-webui-mov2mov


?
07:26
?

1.功能介紹

打開SD中的Mov2Mov標簽

功能設置選項與圖生圖基本一致,導入圖片變成了導入視頻

噪聲(重繪幅度)乘數(shù) [Noise multiplier](不常用)

它被藏在設置—Stable Diffusion中,默認值為1

簡單理解:輸入的重繪幅度乘以這個數(shù)才會得到真實作用的最終“重繪幅度”(雖然真正的原理并不是這樣)

很多AI動畫創(chuàng)作者會設置一個很低的數(shù)值(甚至是0),以確保穩(wěn)定度以及產(chǎn)出作品和原視頻足夠像,但是會消除一些AI繪制的風格化因素,容易造成畫面模糊




?
08:15
?

Movie Frame:幀率,保持與原視頻一致

Max Frame:用來“測試”的選項,先生成一小段視頻查看效果

設置成-1時不生效,輸入50,就是先畫50幀

ModNet:清除背景的選項,似乎需要加載額外模型,可以維持默認不開啟

2.設置完成后點擊生成,生成完可以直接在頁面中預覽

3.如果通過Mov2Mov生成的視頻

在你根目錄下的outputs文件夾里,會多出兩個文件夾,videos存放成品視頻,images存放單幀繪制的圖片

對生成的視頻滿意且不需要局部調(diào)整可以將images文件夾里的圖片刪除


?
09:19
?

4.兩者對比

批處理和Mov2Mov沒有太大區(qū)別

優(yōu)點和缺點

*通?。憾疾荒馨岩纛l整合進來,可以用任意一款剪輯軟件把音頻導入

?
09:44
?

5.注意模型和重繪幅度

模型:決定畫風的最大要素,不同模型出來的效果不一樣

重繪幅度:沒有絕對的正確答案

追求與原視頻“更像”,就設置比較低一些

想讓AI自由”發(fā)揮“,保留更多模型特質(zhì),就設置高一些,但最好不要超過0.5,高了圖像一般不穩(wěn)定



?
10:29
?

四、LoRA應用

在批處理或者Mov2Mov中開啟Additional Network

可以讓特定的LoRA微調(diào)

LoRA具體作用看前面的第9課

AI動畫中最常見的應用是使用一些畫風LoRA讓畫面增強某種風格特色

?
11:04
?

水墨風格LoRA:潑墨 lnk Splash




?
11:25
?

對畫面“改動”不是那么大,添加一些細節(jié),進行潤色

Detail Tweaker豐富細節(jié)

Fashion Girl“美顏”



?
11:38
?

五、ControlNet:精準控制

*在第10課有具體講解

每種ControlNet在AI動畫中都可以發(fā)揮一定的效果

1.AI動畫視頻內(nèi)的效果控制

(1)還原人物姿勢:使用Openpose,開啟Face,增強對表情復現(xiàn)的生動程度


近身鏡頭會拍到手部的要開啟Hand

嫌麻煩開Full,一步到位

(2)還原場景特征:開啟Depth,極大程度降低發(fā)生在復雜背景里閃爍程度

(3)畫面變化幅度不大,主體比較固定:

開啟Canny和SoftEdge,能還原準確的主體形象

(4)如果使用的是最新1.1的ControlNet,還可以開啟Lineart(線稿)的模型

提取比Canny更為精細且富有連貫的線條

在輸入不同屬性的信息圖時,記得選擇對應的預處理器,讓結(jié)果變得更準確


?
12:47
?

2.沒人煉LoRA

最新1.1的ControlNet推出一個新的模型Reference ONLY,作用是可以提供“參考”

把記載主體形象的圖片置入到ControlNet中,開啟Reference ONLY,在生成過程中都去“復現(xiàn)”這張圖上的特征,讓生成出來的每張圖跟原始圖足夠像



加了東西要比不加的要穩(wěn)定、自然得多


?
13:49
?

3.推薦

在AI動畫中使用多重控制網(wǎng)

但up主并沒有推薦在AI動畫中使用太多ControlNet,因為過多的控制會喪失AI的創(chuàng)造力

使用多重ControlNet,會降低繪制速度


?
14:47
?

六、AI動畫現(xiàn)存在的問題

AI動畫目前還不是很成熟,有三點原因:

“錯亂”:AI不能正確讀取每一張圖片上的內(nèi)容,且無法理解一些動作表現(xiàn)與空間關系,在畫面越來越復雜時,變得越來越嚴重

“閃爍”:AI在刻畫前后的幀時經(jīng)常存在“不一致”的現(xiàn)象,從人物外觀特征到服飾到場景,都有可能變化,從而造成類似畫面一直在閃動的效果

?
15:12
?

“速度慢”:每生成1秒25幀的視頻大概要40秒左右的時間

好像速度還行?但up的顯卡是4090

再進一步開啟ControlNet等擴展,時間會兩倍、三倍往上翻,還沒算上反復調(diào)試、測試用的時間



擴展:多幀渲染

時長變?yōu)樵瓉淼?倍


那如何既輕松、又穩(wěn)定地把這個動畫做出來呢?

請看下集

15分鐘入門AI動畫!Mov2Mov零基礎教學,用Stable Diffusio的評論 (共 條)

分享到微博請遵守國家法律
无极县| 天峨县| 南郑县| 杂多县| 三亚市| 青川县| 余江县| 荃湾区| 铜川市| 紫阳县| 台南县| 县级市| 琼结县| 云安县| 汶川县| 广灵县| 桐梓县| 乐陵市| 肥东县| 富源县| 沁阳市| 咸宁市| 丹寨县| 台东市| 彭山县| 昂仁县| 开封县| 于都县| 万宁市| 平山县| 灵武市| 密山市| 阳山县| 贵阳市| 凤山县| 建宁县| 南雄市| 明溪县| 平定县| 桐城市| 屯昌县|