在原神攝影里使用AI圖片放大的結果對比
圖像縮放的算法可以幫你把低分辨率圖片縮放到更大的分辨率。用了AI模型以后,一方面它可以改善以往插值算法可能導致的細節(jié)模糊問題,另一方面,通過更深入地理解與圖像相關的主題細節(jié),提升后的圖像更加真實和自然。(這些模型針對動漫插圖或者照片的特征學習了!)
為什么要使用圖像放大:
已經盡可能使用4K分辨率拍攝,但有的時候還是大幅度裁剪了圖片,為了不會對觀感影響太大,我就考慮對比較重視的照片進行縮放
如果顯卡性能確實有限,拍攝1080P全特效比4K低特效更有意義,因為低畫面設置下糟糕的場景細節(jié)和特效缺失會給后期帶來麻煩
模型對于不同風格的學習通常會在輸出的圖片中反映出對應的影響(使用二次元模型會帶來動漫插圖般的強調邊緣)
對在云原神的直接截圖完全有可能合適,這原本是一部分模型的初衷(修復視頻畫面模糊和偽影)
緩解圖片上的色彩斷層
但從原神游戲里截圖(原攝),截取的照片既包括動漫插畫元素(如角色人物),又包含一些不太典型二次元風格的3D場景細節(jié),AI模型不能完美預測原神游戲中的照片特點,因此放大后的圖像可能會有一些輕微變化。(個別游戲真的有人專門訓練了模型),所以我做了測試。
也正因模型不完全匹配,不能指望它在所有情況下都能完美地處理照片。(比如低于720P的分辨率)
對比結果:
圖片縮放大?。?080P→4K(200%)



場景二:虛化和人物


細節(jié)對比上:Topaz的軟件看起來最好地保留了細節(jié),少量的時候會對細節(jié)用力過猛,可以試著調節(jié)滑塊。Waifu2x表現(xiàn)也很好了,細節(jié)清晰度稍弱于Topaz。
而兩個“Real”模型都有訓練二次元畫風出身的背景,就像上面說的一樣,邊緣很清晰,但是紋理細節(jié)有一點意料之中的涂抹感。這并非完全沒用,在二次元人物插圖里這么做通常是正確的。也就是說你正在處理的是場景還是人物照,才決定你應該優(yōu)先選擇哪些模型
整體觀感上:其實都比較好的完成了工作,細節(jié)優(yōu)于原圖(計算縮放到2x,在1.5x下查看),部分模型處理后顏色有極微小的變化。
所以我一般會讓Topaz Gigapixel AI、waifu2x優(yōu)先處理場景
我用了什么來輸出結果:
Squirrel Anime Enhance軟件(Win),整合了Real-CUGAN、waifu2x和Real-ESR,可以超分圖片和視頻
Topaz Gigapixel AI是一款獨立軟件,提供為不同的樣本學習的AI模型(照片、CG插畫),界面和效果都友好
Waifu2x用的是名為“Waifu2x-caffe”的Windows移植項目(https://github.com/lltcggie/waifu2x-caffe/releases),它有界面并支持N卡和CPU運算
BSRGAN用Automatic1111的WebUI輸出
BSRGAN、Real-CUGAN、Real-ESRGAN都是圖像縮放的方法(模型)
參考:
【Real-CUGAN】 https://github.com/bilibili/ailab/tree/main/Real-CUGAN
【Squirrel Anime Enhance軟件的用法】https://www.bilibili.com/read/cv16713049
【Waifu2x】https://github.com/nagadomi/waifu2x
我深知因為自己了解的局限,測試可能不夠全面或者有錯誤,我會接受意見盡力修改