最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

ECCV 2022 | 清華&騰訊AI Lab提出REALY: 重新思考3D人臉重建的評(píng)估方法

2022-08-02 10:01 作者:計(jì)算機(jī)視覺(jué)life  | 我要投稿

原文鏈接:https://mp.weixin.qq.com/s/5E7g5htI0Jo3cw-UnryFXQ

本文分享ECCV 2022論文《REALY: Rethinking the Evaluation of 3D Face Reconstruction》,對(duì)3D人臉重建的評(píng)估方法進(jìn)行重新思考。該論文提出一個(gè)新的3D人臉重建的benchmark數(shù)據(jù)集,名為REALY benchmark,和相應(yīng)的評(píng)估方法,能對(duì)于重建的3D人臉模型在不同臉部區(qū)域進(jìn)行細(xì)粒度評(píng)價(jià),并對(duì)于主流的單張照片3D人臉重建算法進(jìn)行了詳細(xì)的評(píng)測(cè)。另外,該論文同時(shí)公開(kāi)了一個(gè)由近2000個(gè)人臉掃描模型構(gòu)建的高質(zhì)量全頭模型3DMM基底:HIFI3D++,該基底相對(duì)于BFM、FWH、FaceScape、FLAME、LSFM、LYHM等3DMM基底有更強(qiáng)的表達(dá)能力和更高的Mesh模型質(zhì)量。相關(guān)代碼和3DMM已開(kāi)源。此項(xiàng)工作由清華大學(xué)與騰訊AI Lab合作完成。

圖片

REALY: Rethinking the Evaluation of 3D Face Reconstruction
Zenghao Chai*, Haoxian Zhang*, Jing Ren, Di Kang, Zhengzhuo Xu, Xuefei Zhe, Chun Yuan, Linchao Bao
論文:https://arxiv.org/abs/2203.09729
代碼:https://github.com/czh-98/REALY
項(xiàng)目網(wǎng)站:https://www.realy3dface.com/

一、簡(jiǎn)介

3D人臉重建歷經(jīng)多年發(fā)展,不同的重建方案層出不窮,然而對(duì)于不同方法重建結(jié)果的定量評(píng)價(jià)卻存在明顯的問(wèn)題和缺陷,即客觀指標(biāo)與人的主觀感受難以相符。

回顧先前的3D人臉重建評(píng)價(jià)方案,基于3D頂點(diǎn)的評(píng)價(jià)流程通常借助關(guān)鍵點(diǎn)進(jìn)行scale和pose的預(yù)對(duì)齊,并通過(guò)Iterative Closest Point (ICP)算法進(jìn)行微調(diào)使得predicted mesh和ground-truth scan對(duì)齊,再通過(guò)兩者的最近鄰點(diǎn)建立頂點(diǎn)的對(duì)應(yīng)關(guān)系,并計(jì)算這組對(duì)應(yīng)關(guān)系的NMSE/RMSE作為指標(biāo)。

本文首先分析這樣的評(píng)價(jià)流程存在的問(wèn)題,揭示了先前的評(píng)價(jià)方案無(wú)法與主觀評(píng)價(jià)相吻合的重要原因:即全局的剛性對(duì)齊會(huì)受到臉部局部區(qū)域重建質(zhì)量的影響,并且根據(jù)單方向距離(最近鄰點(diǎn))建立的對(duì)應(yīng)關(guān)系無(wú)法保證頂點(diǎn)之間語(yǔ)義信息的一致性。所以我們構(gòu)建了REALY benchmark,設(shè)計(jì)了新的3D人臉重建評(píng)價(jià)方案,并對(duì)先前的模型和3DMM進(jìn)行了重新的評(píng)價(jià),驗(yàn)證了我們的評(píng)價(jià)流程的合理性。

此外,在構(gòu)建新的benchmark的過(guò)程中,我們通過(guò)整合約2000個(gè)高質(zhì)量的人臉scan數(shù)據(jù),進(jìn)行拓?fù)浣Y(jié)構(gòu)的統(tǒng)一,從而構(gòu)建了一個(gè)新的具有高表達(dá)能力的3DMM,其拓?fù)浣Y(jié)構(gòu)、基的維度都要優(yōu)于先前的3DMM,并在RGB-(D) Fitting的比較中證明其表達(dá)能力和重建效果。

二、論文動(dòng)機(jī)

先前的評(píng)價(jià)方案存在以下兩個(gè)主要問(wèn)題。

  1. ICP對(duì)齊過(guò)程對(duì)局部區(qū)域的變化比較敏感。直觀而言,對(duì)于兩個(gè)完全重合的3D mesh,如果我們只對(duì)predicted mesh的鼻子區(qū)域進(jìn)行修改,理想狀況下,兩個(gè)mesh對(duì)齊結(jié)果應(yīng)該如中間所示,因?yàn)槠渌麉^(qū)域在改變前后與ground-truth是完全重合的,兩者的誤差應(yīng)該主要集中在鼻子區(qū)域;而根據(jù)以往的評(píng)價(jià)流程,全局對(duì)齊操作則會(huì)由于鼻子區(qū)域的變化,導(dǎo)致對(duì)齊后mesh整體的位置發(fā)生偏移而帶來(lái)誤差的放大。對(duì)此,本文將人臉的評(píng)估分為四個(gè)區(qū)域,分別對(duì)每一個(gè)區(qū)域進(jìn)行對(duì)齊、評(píng)估,而不考慮其他區(qū)域的影響。

圖片
  1. 單向的最近鄰點(diǎn)建立的對(duì)應(yīng)關(guān)系容易導(dǎo)致語(yǔ)義信息的不一致。如圖所示,對(duì)于predicted mesh上的某一點(diǎn)x,在計(jì)算誤差時(shí)需要找到ground-truth scan上的對(duì)應(yīng)點(diǎn),若通過(guò)點(diǎn)到平面的最近距離建立對(duì)應(yīng)關(guān)系,則可能為y1。這時(shí),雖然y1是x距離最近的點(diǎn),然而他們?cè)谡Z(yǔ)義信息上沒(méi)有關(guān)聯(lián)性,與嘴角的點(diǎn)x相關(guān)聯(lián)的應(yīng)該是y2,然而y2不會(huì)是x所對(duì)應(yīng)的最近點(diǎn)。在這樣的情況下,雖然計(jì)算得到的誤差較小,但由于對(duì)應(yīng)點(diǎn)之間的語(yǔ)義信息并不一致,因此計(jì)算得到的誤差并不靠譜,較小的誤差并不能表明較大的相似度。對(duì)此我們提出使用一步額外反方向非剛性對(duì)齊,并且其中增加了包含有語(yǔ)義信息的關(guān)鍵點(diǎn)損失,從而得到語(yǔ)義上更加一致的對(duì)應(yīng)關(guān)系。

圖片

三、REALY

為了解決上述兩個(gè)問(wèn)題,我們首先構(gòu)建了一個(gè)新的benchmark,包含100個(gè)2D圖片-3D scan對(duì),其中每個(gè)scan渲染了5個(gè)不同視角下(包含1個(gè)正臉和4個(gè)側(cè)臉)的RGB圖片及深度圖片;對(duì)于每個(gè)3D scan,我們都得到了語(yǔ)義信息一致的68個(gè)關(guān)鍵點(diǎn)以及不同臉部區(qū)域的mask,并在此基礎(chǔ)上首次實(shí)現(xiàn)了3D人臉在不同區(qū)域上的細(xì)粒度評(píng)價(jià)。我們的benchmark的部分?jǐn)?shù)據(jù)如下圖所示。

圖片
圖片

數(shù)據(jù)集的構(gòu)建過(guò)程借助256個(gè)關(guān)鍵點(diǎn)進(jìn)行對(duì)齊和轉(zhuǎn)拓?fù)?,確保了統(tǒng)一拓?fù)涞膍esh的質(zhì)量,進(jìn)而保證了不同id的人臉區(qū)域的mask以及關(guān)鍵點(diǎn)的一致性。

圖片

四、新的評(píng)價(jià)流程

在REALY的基礎(chǔ)上,我們提出一個(gè)新的評(píng)價(jià)流程避免先前評(píng)價(jià)流程的問(wèn)題,具體而言,我們的評(píng)價(jià)流程包含如下兩個(gè)步驟:

  1. 局部區(qū)域的對(duì)齊:考慮到不同區(qū)域的重建質(zhì)量會(huì)影響全局的對(duì)齊結(jié)果,由于我們的benchmark得到了不同臉部區(qū)域的mask,因此我們可以借助這個(gè)信息將predicted mesh對(duì)齊到ground-truth scan的特定區(qū)域,在error計(jì)算時(shí)只計(jì)算ground-truth scan上的特定區(qū)域與predicted mesh之間的誤差,而不考慮臉部其他區(qū)域?qū)τ趯?duì)齊結(jié)果以及誤差計(jì)算的影響。

圖片
  1. 對(duì)應(yīng)關(guān)系的建立:在局部對(duì)齊的基礎(chǔ)上,我們需要建立ground-truth scan某一區(qū)域上的每一個(gè)點(diǎn)與predicted mesh之間的對(duì)應(yīng)點(diǎn)并計(jì)算兩者的誤差??紤]到先前基于最近點(diǎn)的方式存在的問(wèn)題,我們提出一個(gè)新的對(duì)應(yīng)關(guān)系的建立方法,提高了關(guān)鍵點(diǎn)語(yǔ)義信息的一致性。

具體而言,我們首先通過(guò)最近點(diǎn)建立初步的對(duì)應(yīng)關(guān)系;隨后借助non-rigid ICP將ground-truth scan某一區(qū)域變形到predicted mesh上,由于變形后的區(qū)域與predicted mesh已經(jīng)貼合,因?yàn)樵谧冃芜^(guò)程中考慮了具備語(yǔ)義信息的關(guān)鍵點(diǎn)損失,所以這時(shí)的對(duì)應(yīng)關(guān)系相比于原始的最近點(diǎn)的對(duì)應(yīng)關(guān)系具有更好的語(yǔ)義關(guān)系的一致性(如,圖3中臉部關(guān)鍵點(diǎn)的一致性),從而我們對(duì)初始的對(duì)應(yīng)關(guān)系進(jìn)行更新;最后,由于變形前后的拓?fù)湫螤畹囊恢滦裕覀兡軌蚪柚潞蟮膶?duì)應(yīng)關(guān)系計(jì)算原始的ground-truth scan區(qū)域與局部對(duì)齊的mesh之間的最終誤差。

圖片

通過(guò)本文提出的評(píng)價(jià)流程,我們能夠建立語(yǔ)義信息更一致的對(duì)應(yīng)關(guān)系,從而提升最終評(píng)價(jià)結(jié)果的可靠性。直觀而言,如圖所示,對(duì)于ground-truth scan嘴部區(qū)域的關(guān)鍵點(diǎn),我們分別比較了predicted mesh使用先前的對(duì)齊方法(gICP),以及本文提出的基于區(qū)域的對(duì)齊方法(rICP)以及基于形變的關(guān)鍵點(diǎn)更新策略(bICP)在ground-truth scan上找到的對(duì)應(yīng)點(diǎn)與真實(shí)的嘴部關(guān)鍵點(diǎn)的差異,可以發(fā)現(xiàn),我們的方法建立的關(guān)鍵點(diǎn)與真實(shí)的關(guān)鍵點(diǎn)更加接近,因此這時(shí)的誤差最能體現(xiàn)真實(shí)的相似性。

圖片

五、新的人臉3DMM:HIFI3D++

在構(gòu)建benchmark的過(guò)程中,我們對(duì)于一些高質(zhì)量的人臉數(shù)據(jù)(Headspace, FaceScape, HIFI3D)進(jìn)行了拓?fù)浣Y(jié)構(gòu)的統(tǒng)一,得到了約2000個(gè)不同性別、年齡、種族的人臉mesh,在此基礎(chǔ)上,我們構(gòu)建了一個(gè)全頭人臉3DMM并命名為HIFI3D++,不僅包含臉部區(qū)域,還包含脖子、眼球、口腔,不同拓?fù)浣Y(jié)構(gòu)的比較如圖1所示。

圖片

表1統(tǒng)計(jì)了開(kāi)源的3DMM與HIFI3D++的基本信息,圖9則顯示了不同3DMM的variation,我們的RGB(-D) Fitting實(shí)驗(yàn)也證明了HIFI3D++在表達(dá)能力上優(yōu)于先前的3DMM。

圖片
圖片

六、實(shí)驗(yàn)

1. 評(píng)價(jià)方案有效性的證明

我們首先在toy數(shù)據(jù)上證明我們的評(píng)價(jià)流程相較于先前的方法的優(yōu)越性。通過(guò)替換一組統(tǒng)一拓?fù)淙四樀牟煌瑓^(qū)域,采用不同的評(píng)價(jià)流程進(jìn)行對(duì)齊和對(duì)應(yīng)關(guān)系的建立,比較了不同評(píng)價(jià)流程 i) 由于對(duì)齊導(dǎo)致的誤差以及 ii) 建立的對(duì)應(yīng)點(diǎn)與ground-truth真實(shí)對(duì)應(yīng)點(diǎn)之間的誤差,結(jié)果如圖4和表2、3所示。

圖片
圖片

從圖4來(lái)看,全局的對(duì)齊策略(右圖)由于局部區(qū)域的改變?nèi)菀讓?dǎo)致全局誤差的變化,而我們的對(duì)齊策略則只聚焦于特定區(qū)域(右圖),其中對(duì)角線的error map表明誤差較大的區(qū)域,而非對(duì)角線的error map的誤差較小,對(duì)應(yīng)沒(méi)有發(fā)生變化的區(qū)域。從表2來(lái)看,我們的對(duì)齊結(jié)果通過(guò)ground-truth的對(duì)應(yīng)點(diǎn)計(jì)算得到的誤差與真實(shí)的誤差更為接近,而全局的對(duì)齊策略則導(dǎo)致誤差與真實(shí)誤差不匹配。從表3來(lái)看,我們的對(duì)應(yīng)點(diǎn)計(jì)算策略帶來(lái)的誤差要顯著小于全局對(duì)齊后最近點(diǎn)獲得的對(duì)應(yīng)點(diǎn)。實(shí)驗(yàn)結(jié)果表明,我們的評(píng)價(jià)流程不僅能夠聚焦到臉部區(qū)域有差異的部分(圖4和表2的對(duì)角線),并且我們的對(duì)應(yīng)關(guān)系建立更加準(zhǔn)確(表3)。

2. 不同方法在REALY benchmark上的表現(xiàn)

我們對(duì)比了先前的評(píng)價(jià)流程與我們提出的評(píng)價(jià)流程在REALY benchmark上的表現(xiàn)。對(duì)于先前的評(píng)價(jià)方法,我們從兩個(gè)方向(即ground-truth scan的每個(gè)點(diǎn)與predicted mesh建立對(duì)應(yīng)關(guān)系,以及predicted mesh每個(gè)點(diǎn)與ground-truth scan建立對(duì)應(yīng)關(guān)系)作為對(duì)比,定量與定性的比較如表4和圖5所示。

圖片
圖片

我們通過(guò)user study投票選出各組最好(*)/次好(?)的人臉,通過(guò)比較不同評(píng)價(jià)流程選出的最好的人臉(橙、藍(lán)、紫框)可以發(fā)現(xiàn),我們的評(píng)價(jià)流程(橙框)選出的最好的人臉與user study的投票結(jié)果匹配程度更高。并且,我們的評(píng)價(jià)流程給出了細(xì)粒度的評(píng)測(cè)結(jié)果,即:對(duì)不同的人臉區(qū)域都能進(jìn)行定量的評(píng)價(jià)和比較。

3. 不同3DMM在REALY上的表現(xiàn)

借助REALY benchmark,本文采用RGB(-D) Fitting的方式對(duì)不同3DMM的表達(dá)能力進(jìn)行了評(píng)價(jià),定量與定性的比較如表5和圖8所示。

圖片
圖片

定量和定性的結(jié)果表明,我們的3DMM在REALY上取得了更優(yōu)的重建效果,并且,通過(guò)不同方法的比較表明,RGB-D Fitting的結(jié)果要顯著優(yōu)于目前最好的重建算法,3D人臉重建任務(wù)仍有很大的提升空間。

為了進(jìn)一步證明HIFI3D++的表達(dá)能力,我們只用頂點(diǎn)損失,根據(jù)最小二乘的方式擬合一組mesh,對(duì)HIFI3D/HIFI3D(A)/HIFI3D++進(jìn)行比較,如圖9所示。

圖片

七、總結(jié)

本文是我們對(duì)3D人臉重建評(píng)價(jià)的重新思考和探索。針對(duì)先前的評(píng)價(jià)指標(biāo)無(wú)法準(zhǔn)確衡量重建mesh與ground-truth相似性的問(wèn)題,我們構(gòu)建了一個(gè)新的數(shù)據(jù)集——REALY,包含更加豐富以及高質(zhì)量的臉部區(qū)域信息,并借助新的評(píng)價(jià)流程對(duì)先前的數(shù)十個(gè)重建算法、3DMM進(jìn)行了評(píng)價(jià)。

獨(dú)家重磅課程官網(wǎng):cvlife.net

圖片

全國(guó)最大的機(jī)器人SLAM開(kāi)發(fā)者社區(qū)

圖片


—? ?版權(quán)聲明? —

本公眾號(hào)原創(chuàng)內(nèi)容版權(quán)屬計(jì)算機(jī)視覺(jué)life所有;從公開(kāi)渠道收集、整理及授權(quán)轉(zhuǎn)載的非原創(chuàng)文字、圖片和音視頻資料,版權(quán)屬原作者。如果侵權(quán),請(qǐng)聯(lián)系我們,會(huì)及時(shí)刪除。

ECCV 2022 | 清華&騰訊AI Lab提出REALY: 重新思考3D人臉重建的評(píng)估方法的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
鸡东县| 磐安县| 梅河口市| 佳木斯市| 都昌县| 隆子县| 梁山县| 新化县| 东山县| 怀化市| 利津县| 孙吴县| 炎陵县| 柘城县| 庆元县| 新野县| 佳木斯市| 平江县| 彰武县| 乌拉特中旗| 承德县| 瑞丽市| 郑州市| 广宗县| 措美县| 神农架林区| 新丰县| 武邑县| 开平市| 张家口市| 东宁县| 彰武县| 诸暨市| 盘锦市| 柳河县| 麻阳| 宜春市| 芜湖市| 乾安县| 灵宝市| 都江堰市|