最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

人臉識(shí)別最新研究成果分享!這11篇頂會(huì)論文一定看完!

2023-10-20 18:04 作者:深度之眼官方賬號(hào)  | 我要投稿

今天和大家聊聊人臉識(shí)別。

人臉識(shí)別的技術(shù)經(jīng)過(guò)不斷發(fā)展已經(jīng)相當(dāng)成熟,在門(mén)禁、監(jiān)控、手機(jī)解鎖、移動(dòng)支付等實(shí)際場(chǎng)景都能看到。我們比較熟悉的識(shí)別方式是基于可見(jiàn)光圖像的人臉識(shí)別,這種方式有個(gè)非常明顯的缺點(diǎn):光線(xiàn)限制。

在近兩年的人臉識(shí)別研究中,針對(duì)光線(xiàn)限制以及其他方面問(wèn)題的解決方案有了許多突破性進(jìn)展,學(xué)姐簡(jiǎn)單整理了其中一部分個(gè)人認(rèn)為很不錯(cuò)的文章來(lái)和大家分享,想要了解人臉識(shí)別最新技術(shù)的同學(xué)可以收藏一下慢慢看,新的idea看著看著就來(lái)了。

篇幅原因這里只放簡(jiǎn)單介紹,完整論文和代碼看這里??????

掃碼添加小享,回復(fù)“人臉識(shí)別

免費(fèi)領(lǐng)取全部論文+源碼合集

2023

1.Micron-BERT: BERT-based Facial Micro-Expression Recognition

微表情識(shí)別中的Micron-BERT:基于BERT的面部微表情識(shí)別

簡(jiǎn)述:論文提出了一種新的面部微表情識(shí)別方法Micron-BERT。以往的BERT模型在CV任務(wù)中僅能處理完整的圖像或視頻,無(wú)法準(zhǔn)確捕捉面部微表情的細(xì)節(jié)。該方法的創(chuàng)新點(diǎn)在于提出了對(duì)角微注意力機(jī)制來(lái)檢測(cè)兩幀圖像的細(xì)微差異,以及感興趣區(qū)域模塊來(lái)定位和突出微表情區(qū)域。這兩點(diǎn)關(guān)鍵技術(shù)的引入,使Micron-BERT可以在大規(guī)模無(wú)標(biāo)注數(shù)據(jù)集上進(jìn)行自監(jiān)督訓(xùn)練,并在多個(gè)微表情識(shí)別基準(zhǔn)測(cè)試集上取得狀態(tài)最好的性能。

2.SqueezerFaceNet: Reducing a Small Face Recognition CNN Even More Via Filter Pruning

通過(guò)濾波器修剪進(jìn)一步壓縮小型人臉識(shí)別CNN

簡(jiǎn)述:該論文提出了輕量級(jí)人臉識(shí)別模型SqueezerFaceNet。針對(duì)現(xiàn)有模型參數(shù)量大,不適合移動(dòng)設(shè)備的問(wèn)題,論文基于重要性打分的網(wǎng)絡(luò)剪枝方法,從一個(gè)已有較小模型開(kāi)始,進(jìn)一步壓縮模型參數(shù)量,同時(shí)保持識(shí)別性能。這是第一個(gè)在人臉識(shí)別任務(wù)上評(píng)估網(wǎng)絡(luò)修剪方法,獲得了模型壓縮比例可達(dá)40%的效果。

3.Towards Effective Adversarial Textured 3D Meshes on Physical Face Recognition

針對(duì)物理人臉識(shí)別的有效對(duì)抗紋理3D網(wǎng)格

簡(jiǎn)述:該論文提出一種針對(duì)物理人臉識(shí)別的對(duì)抗攻擊方法。該方法設(shè)計(jì)了具有精心拓?fù)浣Y(jié)構(gòu)的對(duì)抗紋理3D網(wǎng)格,可以印制在人臉上來(lái)欺騙面部識(shí)別系統(tǒng)。為了提高黑盒攻擊的有效性,該方法在3D形態(tài)模型的低維空間進(jìn)行優(yōu)化,而不是高維的網(wǎng)格空間。實(shí)驗(yàn)表明,該方法可以有效攻擊多個(gè)商用面部識(shí)別系統(tǒng)。

2022

1.A Survey of Face Recognition

人臉識(shí)別綜述

簡(jiǎn)述:本文概述了人臉識(shí)別的發(fā)展歷史、流程、基于傳統(tǒng)手工設(shè)計(jì)特征或深度學(xué)習(xí)的算法、主流訓(xùn)練集和評(píng)估數(shù)據(jù)集以及相關(guān)應(yīng)用。論文盡可能多地分析和比較了最新研究成果,并仔細(xì)設(shè)計(jì)了一系列實(shí)驗(yàn)來(lái)研究backbone大小和數(shù)據(jù)分布的影響。

2.AdaFace: Quality Adaptive Margin for Face Recognition

人臉識(shí)別的質(zhì)量自適應(yīng)邊際

簡(jiǎn)述:對(duì)于低質(zhì)量人臉圖像的識(shí)別,論文提出了一種根據(jù)圖像質(zhì)量自適應(yīng)調(diào)節(jié)樣本損失函數(shù)權(quán)重的方法:使用特征向量的L2范數(shù)近似圖像質(zhì)量,對(duì)于易樣本,圖像質(zhì)量越高,損失函數(shù)權(quán)重越大;對(duì)于難樣本,圖像質(zhì)量越高,損失函數(shù)權(quán)重越大,這樣可以讓模型更關(guān)注質(zhì)量較好的難樣本,從而在低質(zhì)量人臉數(shù)據(jù)集上獲得較好的識(shí)別效果。

掃碼添加小享,回復(fù)“人臉識(shí)別

免費(fèi)領(lǐng)取全部論文+源碼合集

3.Physically-Based Face Rendering for NIR-VIS Face Recognition

基于物理的近紅外-可見(jiàn)光人臉?shù)秩居糜谌四樧R(shí)別

簡(jiǎn)述:該論文提出一種從可見(jiàn)光人臉生成對(duì)應(yīng)的近紅外人臉的方法,主要是先從大規(guī)模2D人臉數(shù)據(jù)集中重建3D人臉形狀和皮膚反射率,然后將可見(jiàn)光反射率轉(zhuǎn)換為近紅外反射率,使用基于物理的渲染器合成近紅外與可見(jiàn)光人臉圖像,同時(shí)設(shè)計(jì)損失函數(shù)縮小近紅外與可見(jiàn)光的域間差異并聚焦身份特征,這樣合成的大規(guī)模近紅外-可見(jiàn)光人臉數(shù)據(jù)集可以有效提升近紅外與可見(jiàn)光人臉識(shí)別的性能。

4.Killing Two Birds with One Stone: Efficient and Robust Training of Face Recognition CNNs by Partial FC

通過(guò)部分全連接層有效且穩(wěn)健地訓(xùn)練人臉識(shí)別CNN

簡(jiǎn)述:這篇文章提出了一種稱(chēng)為“部分全連接層”的方法來(lái)優(yōu)化人臉識(shí)別中的大規(guī)模分類(lèi)問(wèn)題。關(guān)鍵創(chuàng)新點(diǎn)是改進(jìn)了全連接層的計(jì)算,全連接層按類(lèi)別中心劃分,但每次迭代只選擇更新一小部分類(lèi)別中心,而不是對(duì)全部類(lèi)別中心進(jìn)行更新計(jì)算。這樣既減少了計(jì)算量,也減少了類(lèi)別間的沖突,較少類(lèi)別樣本也能得到更多學(xué)習(xí)。

5.An efficient training approach for very large scale face recognition

非常大規(guī)模人臉識(shí)別的一種高效訓(xùn)練方法

簡(jiǎn)述:這篇論文提出一種更快的人臉?lè)诸?lèi)訓(xùn)練方法,主要是使用動(dòng)態(tài)類(lèi)池來(lái)代替全連接層存儲(chǔ)和更新身份特征,并設(shè)計(jì)了雙數(shù)據(jù)加載器,只用部分身份樣本來(lái)更新參數(shù)而不需要全部身份,還利用半精度浮點(diǎn)數(shù)降低GPU內(nèi)存使用,這樣可以在不損失效果的前提下,大大減少超大規(guī)模人臉數(shù)據(jù)集上的訓(xùn)練時(shí)間和計(jì)算資源消耗。

6.Enhancing Face Recognition With Self-Supervised 3D Reconstruction

基于自監(jiān)督3D重建來(lái)增強(qiáng)人臉識(shí)別

簡(jiǎn)述:這篇文章提出一種通過(guò)自監(jiān)督3D人臉重建來(lái)增強(qiáng)面部識(shí)別的方法。關(guān)鍵創(chuàng)新是增加了一個(gè)3D重建的輔助損失函數(shù)。具體來(lái)說(shuō),文章使用兩個(gè)輔助網(wǎng)絡(luò),第一個(gè)網(wǎng)絡(luò)估計(jì)照明和姿態(tài),第二個(gè)網(wǎng)絡(luò)從面部識(shí)別網(wǎng)絡(luò)中間特征中解碼出規(guī)范的面部深度和反照率信息。整個(gè)網(wǎng)絡(luò)同時(shí)優(yōu)化面部識(shí)別損失和3D重建損失。這樣可以迫使識(shí)別網(wǎng)絡(luò)關(guān)注與身份相關(guān)的面部深度和反照率信息,而不被姿態(tài)和照明干擾。

7.PatchNet: A Simple Face Anti-Spoofing Framework via Fine-Grained Patch Recognition

通過(guò)細(xì)粒度人臉區(qū)域識(shí)別實(shí)現(xiàn)簡(jiǎn)單的人臉?lè)雌墼p框架

簡(jiǎn)述:這篇文章提出了一個(gè)稱(chēng)為 PatchNet 的簡(jiǎn)單而有效的面部反欺詐框架。其關(guān)鍵創(chuàng)新是將面部反欺詐任務(wù)重新定義為面部圖像局部區(qū)域的細(xì)粒度識(shí)別問(wèn)題,也就是識(shí)別面部圖像不同局部區(qū)域的拍攝設(shè)備和材質(zhì)組合。這種方法充分利用了局部區(qū)域中的微小差異特征,可以大幅提高模型對(duì) spoofing 的識(shí)別能力。

8.Learning to Learn across Diverse Data Biases in Deep Face Recognition

在深度人臉識(shí)別中學(xué)習(xí)跨不同數(shù)據(jù)偏差進(jìn)行學(xué)習(xí)

簡(jiǎn)述:這篇文章研究了深度面部識(shí)別中的數(shù)據(jù)偏差問(wèn)題,它指出訓(xùn)練數(shù)據(jù)通常存在多種偏差,如人種、姿態(tài)、遮擋等。文章提出了一種樣本加權(quán)的方法,可以同時(shí)考慮這多個(gè)因素對(duì)樣本重要性的影響,通過(guò)元學(xué)習(xí)獲得樣本權(quán)重。這樣可以平衡不同偏差造成的數(shù)據(jù)不平衡,提高模型的泛化能力。

掃碼添加小享,回復(fù)“人臉識(shí)別

免費(fèi)領(lǐng)取全部論文+源碼合集


人臉識(shí)別最新研究成果分享!這11篇頂會(huì)論文一定看完!的評(píng)論 (共 條)

使用qq登录你需要登录后才可以评论。
久治县| 天长市| 太原市| 宣化县| 六安市| 修水县| 松溪县| 通河县| 新巴尔虎左旗| 伊宁县| 宕昌县| 纳雍县| 洪雅县| 当阳市| 乌苏市| 皮山县| 上林县| 周宁县| 罗定市| 龙游县| 环江| 天门市| 集贤县| 沧源| 防城港市| 盐城市| 班戈县| 泰安市| 奇台县| 新蔡县| 嘉义市| 南溪县| 星座| 攀枝花市| 新邵县| 望奎县| 旬邑县| 建始县| 林西县| 大理市| 滕州市|